А. Сигнал и смысл (Общесемиологические понятия)

1. Мир сигнала

I. Знаковые системы

I. I. Семиология рассматривает все явления культуры как знаковые системы, предполагая, что они таковыми и являются, оставаясь феноменами коммуникации. Тем самым семиология отвечает потребностям разнообразных современных научных дисциплин, которые как раз и пытаются свести явления разного порядка к факту коммуникации[12]. Психология изучает восприятие как факт коммуникации, генетика устанавливает коды наследственной информации, нейрофизиология описывает процесс передачи сигналов с периферии нервных окончаний к коре головного мозга, при этом все эти дисциплины неизбежно обращаются к математической теории информации, которая и была создана для того, чтобы объяснить процесс передачи сигнала на уровне машины на основе общих положений физико-математических дисциплин. По мере своего развития такие науки, как кибернетика, занимающаяся вопросами контроля и управления автоматическими системами и электронно-вычислительной техникой, сблизились с биологическими и неврологическими исследованиями[13]. Одновременно коммуникативные модели находят все более широкое применение при изучении жизни общества[14], при этом на редкость эффективным оказывается сотрудничество структурной лингвистики и теории информации[15], предоставляющее возможность применять структурные и информационные модели при описании культур, систем родства, кухни, моды, языка жестов, организации пространства и т. и., и даже эстетика иногда заимствует некоторые понятия теории коммуникации, используя их в своих целях[16]. Ныне мы наблюдаем ощутимую унификацию поля исследований, позволяющую описывать самые разнообразные явления с помощью одного и того же научного инструментария.


I. 2. Но если любой факт культуры это факт коммуникации и его можно исследовать по тем же параметрам, как и всякий коммуникативный акт, попробуем выделить элементарную коммуникативную структуру там, где имеет место самый примитивный случай коммуникации, например, рассмотреть передачу информации от одного простейшего автоматического устройства к другому. И вовсе не потому, что сложнейшие коммуникативные феномены, включая эстетическую информацию, могут быть редуцированы к передаче сигнала от одной машины к другой, но потому что было бы полезно посмотреть, с чем мы имеем дело в самом простом и очевидном случае коммуникации, построив ее образцовую модель. И только когда нам удастся это сделать, когда мы сможем выделить коммуникативную структуру, лежащую в основе и более сложных случаев коммуникации, только тогда мы будем вправе рассматривать любое явление культуры с точки зрения коммуникации. При этом важно отметить, что, когда мы говорим о культуре, имеется в виду тот смысл, который вкладывает в это слово антропология: культура это любое природное явление, преображенное человеческим вмешательством и в силу этого могущее быть включенным в социальный контекст[17].

II. Коммуникативная модель

II. 1. Итак, рассмотрим простейший случай коммуникации[18]. Жители долины хотят знать, когда вода в водохранилище, расположенном в котловине между двух гор, достигнет уровня, который можно определить как опасный.

Обозначим этот опасный уровень как нулевой. Есть ли еще вода в водоеме или она ушла, ее уровень выше нулевой отметки или ниже и насколько, с какой скоростью она поднимается – все это и многое другое составляет те сведения, или информацию о состоянии водоема, которую нам желательно получить. Источником этой информации служит сам водоем.

Предположим, что в водохранилище есть приспособление вроде поплавка, которое, оказавшись на нулевой отметке, приводит в действие передающее устройство, способное послать какой-нибудь сигнал, например, электрический. Этот сигнал идет по каналу связи, будь то электрический провод или радиоволна, и поступает в принимающее устройство в долине; приемник преобразует сигнал в сообщение, предназначенное адресату. В нашем случае адресат – это другое устройство, соответствующим образом настроенное и способное при получении того или иного сообщения начать регулировать сложившуюся ситуацию, например, привести в действие механизм для спуска воды.

Именно такая коммуникативная цепь возникает в множестве устройств, называемых гомеостатами и предназначенных для того, чтобы не допускать превышения определенной температуры, обеспечивая ее регулировку при получении соответствующим образом закодированного сообщения. Но такая же цепь возникает и в случае радиосообщения. Источником информации в таком случае выступает отправитель, который, прикинув, что он, собственно, хочет сказать, начинает говорить в микрофон (передатчик); микрофон преобразует звуки голоса в другие физические сигналы, волны Герца, передающиеся по каналу связи в приемник, в свою очередь преобразующий их в артикулированную речь, которую слышит адресат. Когда я с кем-то разговариваю, замечает Уоррен Уивер[19], мой мозг служит источником информации, а мозг моего собеседника – адресатом; мой речевой аппарат является передающим устройством, его ухо – приемником.

Но как мы вскоре увидим, стоит нам поместить на противоположных концах коммуникативной цепи людей, ситуация чрезвычайно усложнится, поэтому вернемся к нашей первоначальной модели коммуникации между двумя механизмами.


II. 2. Чтобы известить адресата о том, что вода достигла нулевой отметки, нужно послать ему сообщение. Пусть таким сообщением будет загорающаяся в нужный момент лампочка, хотя, разумеется, у принимающего устройства нет никаких органов чувств и оно не «видит» лампочки, – с него достаточно выключателя, замыкающего и размыкающего электрическую цепь. Но для удобства мы будем говорить о загорающейся или гаснущей лампочке.

Однако состояние лампочки – это уже некий код: зажженная лампочка означает, что вода достигла нулевой отметки, в то время как негорящая лампочка говорит, что этого еще не случилось. Код таким образом устанавливает некоторое соответствие между означающим (зажженная или погасшая лампочка) и означаемым (вода достигла или не достигла нулевой отметки). Впрочем, в нашем случае означаемое это не что иное как готовность устройства определенным образом ответить на полученный сигнал, при этом означаемое и референт, т. е. то реальное явление, к которому относится знак (достижение водой нулевой отметки), – вещи разные, ведь устройство не «знает», достигла или не достигла вода нулевой отметки, прибор устроен так, что придает определенное значение сигналу «лампочка загорелась» и реагирует соответствующим образом[20].


Схема 1. Коммуникативный процесс между двумя механизмами


Между тем существует также явление, называемое шумом. Шум – это возникающая в канале связи помеха, способная исказить физические характеристики сигнала. Например, электрические разряды, внезапное обесточивание и т. п., из-за чего сигнал «лампочка не горит» может быть истолкован превратно, а именно понят так, что вода ниже нулевой отметки. Схема такой коммуникации приводится ниже.


II. 3. Это значит, что, если мы хотим уменьшишь риск ошибки из-за шума, нам следует усложнить код. Допустим, мы установили две лампочки: А и В. Когда лампочка А горит, – значит, все в порядке; если А гаснет и зажигается В, – значит, вода превысила уровень нулевой отметки. В этом случае мы удвоили затраты на коммуникацию, но зато уменьшился риск ошибки, связанной с возникновением шума. Обесточивание погасило бы обе лампочки, но принятый нами код не предусматривает ситуации «обе лампочки не горят», и мы в состоянии отличить сигнал от не-сигнала.

Но может случиться и так, что из-за какой-то простейшей неисправности вместо лампочки В загорится лампочка А или наоборот, и тогда, чтобы избежать этой опасности, мы продолжаем усложнять код, увеличивая его комбинаторные возможности. Добавим еще две лампочки и получим ряд ABCD, в котором АС будет означать «безопасный уровень», BD – нулевую отметку. Таким образом, мы уменьшим опасность помех, могущих исказить сообщение.

Итак, мы ввели в код элемент избыточности: мы пользуемся двумя парами лампочек для сообщения того, что можно было бы сообщить с помощью одной лампочки, и, стало быть, дублируем сообщение.

Впрочем, избыточность, предоставляющая возможность дублировать сообщение, не только обеспечивает большую надежность, усложненный таким образом код позволяет передавать дополнительные сообщения. Действительно, код, состоящий из элементов ABCD, допускает различные комбинации, например: A-B-C-D, AB-BC–CD-AC-BD-AD, ABC-BCD-ACD-ABD, а также другие сочетания АВ-CD или же A-C-B-D и т. д.

Код, следовательно, предполагает наличие репертуара символов, и некоторые из них будут соотноситься с определенными явлениями, в то время как прочие до поры до времени останутся незадействованными, не значащими (хотя они и могут заявлять о себе в виде шума), но готовыми означить любые сообщения, которые нам покажутся достойными передачи.

Всего этого достаточно, чтобы код мог сигнализировать не только об уровне опасности. Можно выделить ряд уровней, последовательно описывающих переход от полной безопасности к состоянию тревоги, обозначая уровни ниже нулевой отметки: – 3, – 2, – 1 и т. д., и ряд уровней выше нулевой отметки 1, 2, 3, от «очень тревожно» до «максимальная опасность», закрепив за каждым определенную комбинацию букв путем введения соответствующих программ в передающее и принимающее устройства.


II. 4. Каким же образом передается сигнал в кодах такого типа? Принцип их действия – это выбор из двух возможностей, обозначим его как оппозицию «да» и «нет». Лампа или горит, или не горит (есть ток в цепи, нет тока). Суть дела не меняется, если сигнал передается как-то иначе. Во всех подобных случаях имеется бинарная оппозиция, максимальная амплитуда колебания от 1 к о, от «да» к «нет», от размыкания к замыканию.

Здесь не обсуждается вопрос о том, является ли метод бинарных оппозиций, позаимствованный, как мы увидим позже, из теории информации, наиболее подходящим способом описания передачи информации и всегда ли и везде передача информации основана на двоичном коде (всякая ли коммуникация, когда бы и где она ни осуществлялась, базируется на последовательном двоичном выборе). Однако то обстоятельство, что все науки – от лингвистики до нейрофизиологии – при описании коммуникативных процессов пользуются бинарным методом, свидетельствует о его простоте и экономичности в сравнении с другими.

III. Информация

III. 1. Когда мы узнаем, какое из двух событий имеет место, мы получаем информацию. Предполагается, что оба события равновероятны и что мы находимся в полном неведении относительно того, какое из них произойдет. Вероятность – это отношение числа возможностей ожидаемого исхода к общему числу возможностей. Если я подбрасываю монетку, ожидая, что выпадет: орел или решка, то вероятность составит 1/2.

В случае игральной кости, у которой шесть сторон, вероятность для каждой составит 1/6, если же я бросаю одновременно две кости, рассчитывая получить две шестерки или две пятерки, вероятность выпадания одинаковых сторон будет равняться произведению простых вероятностей, т. е. 1/36.

Отношение ряда событий к ряду соответствующих им возможностей – это отношение между арифметической и геометрической прогрессиями, и второй ряд является логарифмом первого.

Это означает, что при наличии 64-х возможных исходов, когда, например, мы хотим узнать, на какую из 64-х клеточек шахматной доски пал выбор, мы получаем количество информации, равное lg264, т. е. шести. Иными словами, чтобы определить, какое из шестидесяти четырех равновероятных событий произошло, нам необходимо последовательно произвести шесть операций выбора из двух.



Как это происходит, показано на рис. 2, причем для простоты число возможных случаев сокращено до восьми, если имеется восемь непредсказуемых, так как они все равновероятны, возможных исходов, то определение одного из них потребует трех последовательных операций выбора. Эти операции выбора обозначены буквами. Например, чтобы идентифицировать пятый случай, нужно три раза произвести выбор в точке А между В1 и В2, в точке В2 между С3 и С4 и в точке С3 выбрать между пятым и шестым случаями. И так как речь шла об идентификации одного случая из восьми возможных, то


Log28 = 3.


В теории информации единицей информации, или битом (от «binary digit», т. е. «бинарный сигнал»), называют информацию, получаемую при выборе из двух равновероятных возможностей. Следовательно, если идентифицируется один из восьми случаев, мы получаем три бита информации, если один из шестидесяти четырех – то шесть битов.

При помощи бинарного метода определяется один из любого возможного числа случаев – достаточно последовательно осуществлять выбор, постепенно сужая круг возможностей. Электронный мозг, называемый цифровым, или дигитальным, работая с огромной скоростью, осуществляет астрономическое число операций выбора в единицу времени. Напомним, что и обычный калькулятор функционирует за счет замыкания и размыкания цепи, обозначенных 1 и о, соответственно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных алгеброй Буля.


III. 2. Характерно, что в новейших лингвистических исследованиях обсуждаются возможности применения метода бинарных оппозиций при изучении вопроса о возникновении информации в таких сложных системах, как, например, естественный язык[21].

Знаки (слова) языка состоят из фонем и их сочетаний, а фонемы – это минимальные единицы звучания, обладающие дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но, однако, пи одна из них не может подменять собой другую, а когда такое случается, слово меняет свое значение. Например, по‑итальянски я могу по‑разному произносить «e» в словах «bene» и «cena», но разница в произношении не изменит значения слов. Напротив, если, говоря по‑английски, я произношу «i» в словах «ship» и «sheep» (транскрибированных в словаре соответственно «∫ip» и «∫i: p») по‑разному, налицо оппозиция двух фонем, и действительно, первое слово означает «корабль», второе – «овца». Стало быть, и в этом случае можно говорить об информации, возникающей за счет бинарных оппозиций.


III. 3. Вернемся, однако, к нашей коммуникативной модели. Речь шла о единицах информации, и мы установили, что, когда, например, известно, какое событие из восьми возможных осуществилось, мы получаем три бита информации. Но эта «информация» имеет косвенное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для теории информации не представляет интереса, о чем говорится в сообщениях, о числах, человеческих именах, лотерейных билетах или графических знаках. В теории информации значимо число выборов для однозначного определения события. И важны также альтернативы, которые – на уровне источника – представляются как со-возможные. Информация – не столько то, что говорится, сколько то, что может быть сказано. Информация – это мера возможности выбора. Сообщение, содержащее один бит информации (выбор из двух равновероятных возможностей), отличается от сообщения, содержащего три бита информации (выбор из восьми равновероятных возможностей), только тем, что во втором случае просчитывается большее число вариантов. Во втором случае информации больше, потому что исходная ситуация менее определенна. Приведем простой пример: детективный роман тем более держит читателя в напряжении и тем неожиданнее развязка, чем шире круг подозреваемых в убийстве. Информация – это свобода выбора при построении сообщения, и, следовательно, она представляет собой статистическую характеристику источника сообщения. Иными словами, информация – это число равновероятных возможностей, ее тем больше, чем шире круг, в котором осуществляется выбор. В самом деле, если в игре задействованы не два, восемь или шестьдесят четыре варианта, а п миллиардов равновероятных событий, то выражение


I = lg2 109n


составит неизмеримо большую величину. И тот, кто, имея дело с таким источником, при получении сообщения осуществляет выбор одной из n миллиардов возможностей, получает огромное множество битов информации. Ясно, однако, что полученная информация представляет собой известное обеднение того несметного количества возможностей выбора, которым характеризовался источник до того, как выбор осуществился и сформировалось сообщение.

В теории информации, стало быть, берется в расчет равновероятность на уровне источника, и эту статистическую величину называют заимствованным из термодинамики термином энтропия[22]. И действительно, энтропия некоторой системы – это состояние равновероятности, к которому стремятся ее элементы. Иначе говоря, энтропия связывается с неупорядоченностью, если под порядком понимать совокупность вероятностей, организующихся в систему таким образом, что ее поведение делается предсказуемым. В кинетической теории газа описывается такая ситуация: предполагается, впрочем, чисто гипотетически, что между двумя заполненными газом и сообщающимися емкостями наличествует некое устройство, называемое демоном Максвелла, которое пропускает более быстрые молекулы газа и задерживает более медленные. Таким образом, в систему вводится некоторая упорядоченность, позволяющая сделать прогнозы относительно распределения температур. Однако в действительности демона Максвелла не существует, и молекулы газа, беспорядочно сталкиваясь, выравнивают скорости, создавая некую усредненную ситуацию, тяготеющую к статистической равновероятности. Так система оказывается высокоэнтропийной, а движение отдельной молекулы газа непредсказуемым.

Высокая энтропийность системы, которую представляют собой буквы на клавиатуре пишущей машинки, обеспечивает возможность получения очень большого количества информации. Пример описан Гильбо: машинописная страница вмещает 25 строк по 60 знаков в каждой, на клавиатуре 42 клавиши, и каждая из них позволяет напечатать две буквы, таким образом, с добавлением пробела, который тоже знак, общее количество возможных символов составит 85. Если, умножив 25 на 60, мы получаем 1500 позиций, то спрашивается, какое количество возможных комбинаций существует в этом случае для каждого из 85 знаков клавиатуры?

Общее число сообщений с длиной L, полученных с помощью клавиатуры, включающей С знаков, можно определить возводя L в степень С. В нашем случае это составит 85 в степени 1500 возможных сообщений. Такова ситуация равновероятности, существующая на уровне источника, и число возможных сообщений измеряется 2895-значным числом.

Но сколько операций выбора надо совершить, чтобы идентифицировать одно-единственное сообщение? Очень и очень много, и их реализация потребовала бы значительных затрат времени и энергии – как нам известно, каждое из возможных сообщений включает 1500 знаков, каждый из которых определяется путем последовательных выборов между 85 символами клавиатуры… Потенциальная возможность источника, связанная со свободой выбора, чрезвычайно высока, но передача этой информации оказывается весьма затруднительной[23].


III. 4. Здесь-то и возникает нужда в коде с его упорядочивающим действием. Но что дает нам введение кода? Ограничиваются комбинационные возможности задействованных элементов и число самих элементов. В ситуацию равновероятности источника вводится система вероятностей: одни комбинации становятся более, другие менее вероятными. Информационные возможности источника сокращаются, возможность передачи сообщений резко возрастает.

Шеннон[24] определяет информацию сообщения, включающего N операций выбора из h символов, как


I = Nlg2h


(эта формула напоминает формулу энтропии).

Итак, сообщение, полученное на базе большого количества символов, число комбинаций которых достигает астрономической величины, оказывается высокоинформативным, но вместе с тем и непередаваемым, ибо для этого необходимо слишком большое число операций выбора. Но эти операции требуют затрат, идет ли речь об электрических сигналах, механическом движении или мышлении: всякий канал обладает ограниченной пропускной способностью, позволяя осуществить лишь определенное число операций выбора. Следовательно, чтобы сделать возможной передачу информации и построить сообщение, необходимо уменьшить значения N и h. И еще легче передать сообщение, полученное на основе системы элементов, число комбинаций которых заранее ограничено. Число выборов уменьшается, но зато возможности передачи сообщений возрастают.

Упорядочивающая функция кода как раз и позволяет осуществить коммуникацию, ибо код представляет собой систему вероятностей, которая накладывается на равновероятность исходной системы, обеспечивая тем самым возможность коммуникации. В любом случае информация нуждается в упорядочении не из-за ее объема, но потому, что иначе ее передача неосуществима.

С введением кода число альтернатив такого высокоэнтропийного источника, как клавиатура пишущей машинки, заметно сокращается. И когда я, человек знакомый с кодом итальянского языка, за нее сажусь, энтропия источника уменьшается, иными словами, речь идет уже не о 85 в степени 1500 сообщениях на одной машинописной странице, обеспечиваемых возможностями клавиатуры, но о значительно меньшем их числе в соответствии с вероятностью, отвечающей определенному набору ожиданий, и, стало быть, более предсказуемом. И даже если число возможных сообщений на страничке машинописного текста неизменно велико, все равно введенная кодом система вероятностей делает невозможным присутствие в моем сообщении таких последовательностей знаков, как «wxwxxsdewvxvxc», невозможных в итальянском языке за исключением особых случаев металингвистических описаний, подобных только что приведенным. Эта система не разрешает ставить «q» после «ass», зато позволяет предсказать с известной долей уверенности, что вслед за «ass» появится одна из пяти гласных: «asse», «assimilare» и т. д. Наличие кода, предусматривающего возможность разнообразных комбинаций, существенно ограничивает число возможных выборов.

Итак, в заключение дадим определение кода как системы, устанавливающей 1) репертуар противопоставленных друг другу символов; 2) правила их сочетания; $) окказионально взаимооднозначное соответствие каждого символа какому-то одному означаемому. При этом возможно выполнение лишь одного или двух из указанных условий[25].

IV. Код

IV. 1. Все сказанное позволяет вернуться к нашей первоначальной модели.

В упоминавшемся водохранилище могут происходить самые разнообразные процессы. Уровень воды в нем может устанавливаться какой угодно. И если бы нужно было описать все возможные уровни, понадобился бы большой набор символов, хотя фактически нас не интересует, поднялась ли вода на один или на два миллиметра или опустилась на столько же. Во избежание этого приходится произвольно членить континуум, устанавливая дискретные единицы, пригодные для коммуникации и получающие статус смыслоразличителей. Допустим, нас интересует, поднялся ли уровень воды с отметки – 2 до отметки – 1; при этом совершенно не важно, на сколько сантиметров или миллиметров уровень воды превышает отметку – 2. Помимо уровней – 2 и – 1 все прочие для нас несущественны, мы их не принимаем во внимание. Таким образом формируется код, т. е. из многочисленных комбинаций четырех символов А, В, С и D выделяются некоторые, наиболее вероятные.

Например:



Итак, принимающее устройство должно быть отрегулировано таким образом, чтобы адекватно реагировать только на предусмотренные комбинации, пренебрегая всеми прочими как шумом. Ничто, впрочем, не препятствует тому, чтобы не принятые в расчет комбинации были использованы в случае, если возникнет необходимость более точного расчета уровней, естественно, что при этом изменится и код.


IV. 2. И теперь мы уже можем, говоря об информации как о возможности и свободе выбора, разграничить два значения этого понятия, по форме одинаковых, ведь речь идет об определенной степени свободы выбора, но по существу различных. В самом деле, у нас есть информация источника, которая в отсутствие гидро- и метеосводок, позволяющих предсказать повышение или понижение уровня воды, рассматривается как состояние равновероятности, вода может достигнуть какого угодно уровня.

Эта информация корректируется кодом, устанавливающим систему вероятностей. В статистическую неупорядоченность источника вносится упорядочивающее начало кода.

Но кроме того, у нас есть также информация кода. И действительно, на основе имеющегося кода мы можем составить семь равновероятных сообщений. Код вносит в физическую систему некий порядок, сокращая ее информационный потенциал, но по отношению к конкретным сообщениям, которые формируются на его основе, сам код в определенной мере оказывается системой равных вероятностей, упраздняемых при получении того или иного сообщения. Отдельное сообщение в его конкретной форме, будучи какой-то определенной последовательностью символов, представляет собой некую окончательную – ниже мы увидим, до какой степени – упорядоченность, которая накладывается на относительную неупорядоченность кода.

При этом нужно отметить, что такие понятия, как информация (противопоставленное «сообщению»), неупорядоченность (противопоставленное «упорядоченности»), равновероятность (в противовес системе вероятностей) являются все без исключения понятиями относительными. В сравнении с кодом, который ограничивает информационное поле источника, последний обладает известной энтропией, но по сравнению со сформированными на его основе сообщениями сам код тоже характеризуется определенной энтропией.

Порядок и беспорядок понятия относительные; порядок выглядит порядком на фоне беспорядка и наоборот; мы молоды в сравнении с нашими отцами и стары в сравнении с сыновьями; кто-то, считающийся в одной системе моральных правил развратником, в другой, менее жесткой, может сойти за образец нравственной чистоты.


IV. 3. Все сказанное имеет смысл при следующих условиях:

1) имеется источник информации и имеется отдельное передающее устройство, в котором, согласно заложенному коду, осуществляется идентификация смыслоразличительных признаков и отсеивание всего того, что не предусмотрено кодом;

2) приемник информации – машина, однозначным образом реагирующая на поступающие сообщения;

3) код, на который настроен приемник и передатчик, один и тот же;

4) машина – как передающее, так и принимающее устройства – не в состоянии «усомниться» в правильности кода.


Все, однако, меняется, если эти исходные условия не соблюдены, например:

1) если адресатом сообщений оказывается человек, даже если источник по-прежнему машина (см. A.2.I–IV);

2) если источник информации – человек. В таком случае источник и передатчик совмещаются (я сам являюсь источником и передатчиком информации, которую намереваюсь сообщить кому-то). Более того, часто совпадают также источник и код в том смысле, что единственной информацией, которой я располагаю, оказывается система равновероятностей, навязываемая мне используемым мной кодом (см. A.2.V);

3) предполагается, что возможны случаи, когда либо отправитель, либо адресат могут усомниться в правильности кода (см. А.3).


Как мы увидим ниже, принятие этих условий означает переход от мира сигнала к миру смысла.

2. Мир смысла

I. Значение «значения». Денотация и коннотация

I.1. Предположим, что адресат сообщения, информирующего об уровне воды в водохранилище, не механизм, а человек. Зная код, он отдает себе отчет в том, что последовательность АВС означает нулевую отметку, тогда как прочие сигналы указывают на то, что вода находится на любом другом уровне от наименее опасного до наиболее опасного.

Итак, вообразим, что человек получает сигнал АВС. В этом случае ему становится ясно, что вода достигла нулевой отметки (опасность), но этим дело не кончается. Например, человек может встревожиться. Эта тревога родилась не сама по себе, в какой-то мере она связана с содержанием сообщения. И в самом деле, последовательность АВС, феномен чисто физического порядка, сообщает не только то, что предусмотрено кодом (вода достигла нулевой отметки), или денотативное значение, но несет дополнительное значение – коннотацию, сигнализируя об опасности. С машиной такого не бывает: соответствующим образом настроенный механизм, получив сообщение АВС, реагирует согласно заложенной программе, ему доступна информация, но значение ему недоступно. Механическое устройство не знает, что стоит за последовательностью сигналов АВС, оно не понимает ни что такое нулевая отметка, ни что такое опасность. Машина получает запрограммированное количество бит информации, необходимое для надежной передачи сообщения по каналу связи, и адекватно реагирует.

Когда мы имеем дело с машиной, мы не выходим за рамки кибернетики, а кибернетику интересуют только сигналы. Но если в коммуникации участвует человек, то мы должны говорить не о мире сигнала, но о мире смысла. С этого момента речь должна идти уже о процессе означивания, ведь в этом случае сигнал – это не просто ряд дискретных единиц, рассчитываемых в битах информации, но, скорее, значащая форма, которую адресат-человек должен наполнить значением.


I. 2. А теперь нам следует определить содержание термина «значение» – по крайней мере в том смысле, в котором он будет использоваться в этой книге[26]. Для этого прежде всего надо избавиться от вредной привычки путать означаемое с референтом.

Обратимся в связи с этим к известному треугольнику Огдена и Ричардса[27], изображенному ниже.



Пусть символом в данном случае будет знак естественного языка, например, слово «собака». Связь между словом и вещью, на которую оно указывает, в общем, условна и никак не мотивирована природными свойствами собаки. В английском языке стояло бы не «собака», a dog, и ничего от этого бы не поменялось. Отношение между символом и вещью составляет то, что называется референцией, или, как говорит Ульманн[28], «информацией, которую имя сообщает слушателю». Это определение пока что нас вполне устраивает, поскольку оно покрывает собой то, что одни называют понятием, другие – мысленным представлением, третьи – условиями употребления того или иного знака и т. д. Во всяком случае, очевидно, что в то время как связь между символом и референтом остается сомнительной, при том что ее произвольный внеприродный характер сомнению не подлежит; связь, которая устанавливается между символом и референцией, непосредственна, взаимна и обратима. Тот, кто говорит слово «собака», думает о собаке, а у того, кто это слово слышит, рождается в голове образ собаки.


I. 3. Спорам об отношениях между символом, референтом и референцией нет конца. Скажем только, что по сути дела дискуссии о референте не подлежат ведению семиологии[29]. Те, кто занимаются проблемой референта, хорошо знают, что символа из референта не выведешь, поскольку бывают символы, у которых есть референция, но нет референта (например, слово «единорог» отсылает к несуществующему фантастическому животному, что нисколько не мешает тому, кто слышит это слово, прекрасно понимать, о чем идет речь); бывают также символы с разным значением, а референт у них один: всем известен пример из астрономии с утренней и вечерней звездой, относительно которых древние полагали, что утренняя звезда это одно, а вечерняя – это другое, между тем, как установила современная астрономия, оба значения отсылают к одному и тому же референту, точно так же два выражения, такие как «мой отчим» или «отец моего сводного брата», относятся к одному и тому же референту, хотя значения их не совпадают, они принадлежат разным контекстам и эмоционально окрашены по-разному. В некоторых семантических теориях денотатом, или означаемым некоего символа, считается целый класс вещей, существующих в действительности и охватываемых данным представлением (слово «собака» относится ко всему классу собак), в то время как коннотацией называют совокупность качеств, приписываемых собаке (набор тех свойств, по которым зоологи отличают собаку от прочих четвероногих млекопитающих). В таком случае, получается, что денотация – это то же самое, что и экстенсивность понятия, и тогда коннотация совпадает с его интенсивностью[30]. В нашем исследовании мы не будем пользоваться терминами денотация и коннотация в этом значении.


I. 4. Наличие или отсутствие референта, а также его реальность или нереальность несущественны для изучения символа, которым пользуется то или иное общество, включая его в те или иные системы отношений. Семиологию не заботит, существуют ли на самом деле единороги, – этим занимаются зоология и история культуры, изучающая роль фантастических представлений, свойственных определенному обществу в определенное время, зато важно понять, как в том или ином контексте ряд звуков, составляющих слово «единорог», включаясь в систему лингвистических конвенций, обретает свойственное ему значение и какие образы рождает это слово в уме адресата сообщения – человека определенных культурных навыков, сложившихся в определенное время.

Загрузка...