Интригующие свойства динамического хаоса и связанных с ним бифуркаци-
онных явлений привлекают пристальное внимание исследователей уже в тече-
ние несколько десятков лет. Первые идеи в этом направлении были высказаны
в 60-е годы XX века и быстро завоевывали умы исследователей. Интерес к ха-
осу как к явлению, так или иначе имеющему отношение к информационным
процессам, постоянно подпитывался развитием теоретических представлений
и получаемых при этом результатов, а также исследованием реальных систем
различной физической природы, включая радиофизические и биологические
системы.
В Институте радиотехники и электроники РАН (АН СССР) явление дина-
мического хаоса было обнаружено в генераторах на основе электронных ваку-
умных приборов в середине 60-х годов и в первое время использовалось только
в специальных приложениях, но и эти приложения были напрямую связаны
и информационными системами.
Общие тренды развития науки о динамическом хаосе позволили исследова-
телям к началу 90-х годов более четко и осознанно сформулировать прикладное
потенциальное значение динамического хаоса как средства и идеологии обра-
ботки и передачи информации.
В рамках этой парадигмы в ИРЭ РАН было сформировано направление ис-
следований «Информационные и коммуникационные технологии на основе
динамического хаоса (InformChaosLab)», позднее организационно оформлен-
ное в соответствующее подразделение Института.
В книге рассматриваются основные разработки лаборатории Информхаос
и полученные результаты.
Вопрос, который постоянно возникает в радиофизической аудитории: в чем
отличие динамического хаоса как сигнала от шума, например теплового? Ка-
кие у него специфические свойства и как эти свойства могут быть использованы
при построении систем коммуникаций и анализа информации?
В главе 1 «Шум, динамический хаос и информация» (А. С. Дмитриев) рас-
сматриваются общие свойства шумовых процессов и динамического хаоса при-
менительно к обработке и передаче информации.
Динамический хаос (хаотические колебания) действительно имеет как
черты, роднящие его с классическими шумами и позволяющие рассматри-
вать хаотические колебания, аналоговый шумоподобный сигнал, так и черты,
кардинально отличающие его от классических шумов. По существу, научить-
ся эффективно использовать уникальную комбинацию свойств хаоса как шу-
моподобного сигнала и как процесса, генерируемого динамической системой
с богатым набором бифуркационных явлений, — сверхзадача, над которой ломают головы исследователи. Продвижения в этом направлении есть, и они
значительные. Парадокс, однако, заключается в том, что такое фундаменталь-
ное и удивительное явление имеет на сегодняшний день очень скромные прак-
тические результаты.
Одна из главных задач, которая должна быть решена для того, чтобы прак-
тическое применение хаотических колебаний стало возможным, — создание
эффективных источников таких колебаний. Это должны быть высокотехноло-
гичные устройства, обеспечивающие необходимые, например спектральные,
характеристики, с хорошей воспроизводимостью от образца к образцу, пригод-
ные к массовому производству.
В главе 2 «Источники и генераторы динамического хаоса микроволнового
диапазона на сосредоточенных элементах» (Е. В. Ефремова) излагаются основ-
ные принципы и результаты разработок генераторов хаоса микроволнового ди-
апазона с сосредоточенными параметрами, разработанные в лаборатории.
Глава 3 «Хаос и интеллект» (Ю. В. Андреев, А. С. Дмитриев) посвящена раз-
работке принципов ассоциативной памяти на траекториях нелинейных дина-
мических систем и моделированию на ее основе ряда существенных явлений,
которые можно отнести к интеллектуальной деятельности. Здесь стоит сразу
оговорить, что речь идет об интеллекте как способности системы решать про-
блемы. С этой точки зрения интеллект — это свойство жизни, которым обла-
дает даже самый примитивный одноклеточный организм. Принципиальная
особенность модельных представлений, развиваемых в главе, заключается
в использовании в качестве хранилища информации совокупности траекторий
специально синтезируемых динамических систем (в основном одномерных ото-
бражений), что, во-первых, обеспечивает гигантскую емкость памяти по срав-
нению с другими конструктивными моделями на основе динамических систем
и, во-вторых, позволяет использовать широкий набор свойств динамических
систем и бифуркационных явлений в них для обработки записываемой и хра-
нящейся информации.
В главе 4 «Передача информации с использованием эффекта хаотической
синхронизации» (А. С. Дмитриев) обсуждаются общие принципы организации
передачи информации с использованием специфических свойств динамическо-
го хаоса как колебаний, генерируемых нелинейными динамическими система-
ми, и его отличий от классических шумов.
Глава 5 «Прямохаотическая передача информации» (А. С. Дмитриев) посвя-
щена разработанному в лаборатории методу беспроводной передачи информа-
ции, который впервые позволил международному научно-техническому сооб-
ществу признать динамический хаоса как эффективный носитель информации
при беспроводной передаче данных, включив его в стандарт IEEE. В этом ме-
тоде хаотические колебания используются в качестве сверхширокополосного аналогового шумоподобного сигнала. Динамическая природа этих колебаний
используется при создании источника хаоса с заданными спектральными ха-
рактеристиками и при формировании хаотических радиоимпульсов.
С момента первых экспериментов по прямохаотической передаче инфор-
мации и первых экспериментальных передатчиков и приемников, с помощью
которых продемонстрирована работоспособность предложенного принципа,
в лаборатории было разработано и экспериментально исследовано более десяти
вариантов сверхширокополосных прямохаотических приемопередатчиков раз-
личного назначения.
В главе 6 «Приемопередатчики на сверхширокополосных хаотических сиг-
налах» (А. С. Дмитриев, Е. В. Ефремова, Л. В. Кузьмин, В. А. Лазарев, М. Ю. Ге-
расимов, А. В. Уваров) описываются некоторые из этих устройств, их характе-
ристики и назначение.
Все приемопередатчики, рассмотренные в главе 6 создавались как сетевые
устройства, в том числе как основа узлов для беспроводных сенсорных сетей.
Глава 7 «Сверхширокополосные прямохаотичекие сенсорные и активные
сети» (А. С. Дмитриев, Л. В. Кузьмин, В. А. Лазарев, Ю. В. Гуляев, В. В. Ицков,
М. М. Петросян, М. Г. Попов, А. И. Рыжов) посвящена организации и приме-
рам разработки сетей на основе СШП прямохаотических приемопередатчи-
ков. В ней описываются сети различной степени сложности и топологической
структуры, начиная с сетей с топологией типа звезда и статической адресацией,
с переходом к самоорганизующимся сетям, сетям с переменной топологией для
мобильных платформ (роботов). Рассматривается также эволюция сенсорных
сетей к активным сетям при развитии концепции Интернета вещей и Интерне-
та робототехники.
Характерной чертой видимого света (например, солнечного) является его
некогерентность и шумовой характер. Именно это обстоятельство позволяет
глазу получать изображение окружающего мира без эффектов интерференции,
свойственных когерентному излучению. Некогерентность свойственна излу-
чению тепловых источников и в других участках электромагнитного спектра,
в том числе микроволнового и радиодиапазона. Такое излучение (свет) от есте-
ственных источников плодотворно используется при исследовании космиче-
ского пространства с помощью радиотелескопов, в радиометрических методах
исследования поверхности Земли с космических аппаратов, в медицине и дру-
гих областях.
В качестве одного из применений динамического хаоса в лаборатории пред-
ложены искусственные малогабаритные источники некогерентного сверхши-
рокополосного излучения в радио- и микроволновом диапазоне частот — ис-
точники радиосвета.
В главе 8 «Радиосвет» (А. С. Дмитриев, Е. В. Ефремова, Ю. В. Гуляев,
М. М. Петросян, В. В. Ицков, М. Г. Попов, А. И. Рыжов) представлены результа-
ты исследований лаборатории по созданию миниатюрных источников освеще-
ния в микроволновом диапазоне, приемников такого излучения и получения
изображений в нем.
На сегодняшний день прямохаотическая схема связи является единствен-
ной практически реализованной и используемой схемой беспроводной связи
на основе динамического хаоса. Вместе с тем современные требования к бес-
проводным средствам коммуникаций бросают новые вызовы. В первую очередь
это относится к массовому применению беспроводных, малопотребляющих,
достаточно высокоскоростных средств связи для Интернета вещей, Интернета
вещей для робототехники и других массовых применений. Такие задачи сти-
мулируют интерес к расширению возможностей использования хаотических
сигналов в области беспроводной передачи данных.
В главе 9 «Относительная прямохаотическая передача информации»
(А. С. Дмитриев, Т. И. Мохсени) рассматривается новая схема использования
сверхширокополосных хаотических радиоимпульсов для беспроводной пере-
дачи информации, потенциально намного расширяющая возможности прямо-
хаотических систем.
Пользуясь случаем, хотелось бы еще раз отдать дань глубокого уважения
В. Я. Кислову, Е. А. Мясину, Н. Н. Залогину, Н. Д. Девяткову, Ю. В. Анисимовой,
Р. В. Беляеву, Г. М. Воронцову, З. С. Чернову, благодаря труду, упорству и науч-
ной удачи которых в ИРЭ АН СССР родилось, выросло и окрепло научное на-
правление — микроволновой динамический хаос.
За более чем 25-летний период существования лаборатории «Информхаос»
многие наши коллеги, включая авторов книги, так или иначе прошли через нее
и до сих пор продолжают с ней сотрудничать. Все они внесли свой вклад в по-
лучение и развитие результатов, представленных в данном издании. Мы с удо-
вольствием выражаем им признательность за совместную работу. Вот их, воз-
можно, неполный список:
А. И. Панас, С. О. Старков, Ю. Л. Бельский, Д. А. Куминов, Е. М. Широков,
В. Синякин, М. Коротеев, А. В. Кинев, А. В. Клецов, Н. А. Атанов, Б. Е. Кяргин-
ский, А. М. Лактюшкин, Е. А. Сельменев, Г. Касьян, А. Хилинский, А. А. Дми-
триев, Ю. А. Дмитриев, Д. Пузиков, Ю. Никишов, Н. А. Максимов, В. В. Иц-
ков, М. М. Петрсосян, М. Г. Попов, А. В. Уваров, М. Герасимов, В. П. Иванов,
К. М. Сьерра-Теран, Р. Емельянов, Е. В. Григорьев.
Наконец, нам приятно отметить, что представленные в книге исследова-
ния и полученные в них результаты рождались в обширной, доброжелатель-
ной, способствующей творчеству «экосистеме», в которую входят ведущие
российские и зарубежные университеты и организации: МФТИ (Д. С. Лукин, Н. П. Чубинский), МГУ (И. И. Минакова), ИПФ РАН (В. И. Некоркин), НГГУ
(Л. П. Шильников, В. Д. Шалфеев, А. Л. Шильников, В. В. Матросов, С. В. Гон-
ченко), ЯрГУ (С. А. Кащенко), Вл.ГУ (О. Я. Бутковский), СГУ (Д. И. Трубецков,
В. С. Анищенко, Б. П. Безручко, Храмов, Короновский), ИПМ РАН (Г. Г. Ма-
линецкий), СФ ИРЭ РАН (С. П. Кузнецов, Е. П. Селезнев, В. И. Пономаренко,
М. Д. Прохоров), ИМ НАН Украины (А. Н. Шарковский, Ю. Л. Майстренко,
В. Л. Майстренко, В. В. Федоренко), БГУ (Г. Крылов, А. В. Сидоренко), Кали-
форнийский университет (Беркли, США, Л. Чуа), Технический университет
(Лозанна, Швейцария, М. Хаслер), Технический университет (Дрезден, Герма-
ния, В. Шварц).
Издание подготовлено при финансовой поддержке Российского научного фонда
(Проект — 16-19-00084).
ГЛАВА 1
ШУМ,
ДИНАМИЧЕСКИЙ
ХАОС
И ИНФОРМАЦИЯ
1.1. Введение
В ИРЭ АН СССР в 1960-х годах в лаборатории В. Я. Кислова проводился цикл
работ по получению шумовых колебаний в радио- и СВЧ диапазонах на основе
электровакуумных приборов, в которых в качестве рабочей среды вместо ваку-
ума использовалась плазма. Целью этих работ было получение эффективных
источников излучения шумовых сигналов для задач радиомаскировки, а также
уже наметившийся к тому времени интерес к применению шумовых сигналов
как носителей для передачи информации [1.1–1.5]. В процессе этих исследо-
ваний было обнаружено возникновение шумовых (или, точнее, как показали
дальнейшие исследования, аналоговых шумоподобных) колебаний в сильно
нелинейных режимах работы электровакуумных приборов, прежде всего в уст-
ройствах на основе лампы бегущей волны. История этого открытия и связанных
с ним «приключений» описана непосредственными их участниками Е. А. Мя-
синым [1.6] и Н. Н. Залогиным [1.7].
Следует отметить, что 1960-е годы оказались тем периодом в развитии дина-
мики нелинейных систем, на котором «умерла» концепция полной предсказуе-
мости поведения детерминированных систем (во всяком случае в практическом
плане), вместе с эти возникла идея странных аттракторов, хаотических колеба-
ний и динамического хаоса.
Открытие и изучение динамического хаоса заставили пересмотреть мно-
гие привычные представления о процессах в окружающем нас мире. Интерес
к применению хаоса как шумоподобных аналоговых колебаний специального
типа для решения таких классических задач теории информации, как обработ-
ка и передача сигналов, привлекает внимание к информационным свойствам
самого динамического хаоса и порождающих его динамических систем (см., на-
пример, [1.8–1.11]). Еще одним классом процессов, где роль хаоса и нелинейной динамики в целом чрезвычайно важна, являются информационные процессы
в живых системах (мозге, сердечно-сосудистой системе, отдельных нейронных
связях).
Ниже хаотические колебания (хаос) рассматриваются как носитель инфор-
мации, а системы, их генерирующие, как специфические источники инфор-
мации. Важным свойством хаотических колебаний как информационных сиг-
налов является то, что средний объем информации в единицу времени у них
строго определен. Отсюда следует, например, что они могут быть переданы без
искажений по каналу с ограниченной пропускной способностью. Для других
видов аналоговых сигналов, содержащих информацию, например для речевых
сигналов или белого шума, это невозможно.
Непосредственно информация, содержащаяся в хаотических сигналах,
не является «полезной». В этом смысле образ хаотических колебаний в фазовом
пространстве — хаотический аттрактор — может рассматриваться в качестве
резервуара, наполненного некоторой неконтролируемой информацией. Типич-
ными хранимыми «информационными блоками» в резервуаре являются неус-
тойчивые предельные циклы, число которых в хаотическом аттракторе счетно.
Теоретически объем информации, хранящийся в хаотическом аттракторе,
не ограничен.
Можно ли сделать так, чтобы хотя бы часть этого хранилища соответство-
вала содержательной информации? Оказывается, это возможно, и, более того,
разработана теория (о ней пойдет речь в главе 3), обеспечивающая построе-
ние таких хранилищ полезной информации с практически неограниченной
емкостью.
Следующий вопрос, связанный с информационными свойствами хаотичес-
ких траекторий, звучит так: можно ли динамике произвольной динамической
системы, не нарушая ее структуры, сопоставить требуемую информационную
последовательность? Сформулируем этот вопрос несколько иначе: нельзя ли ха-
отическую систему использовать в качестве кодера, преобразующего информа-
ционный сигнал в хаотический? В данной главе приводятся простые примеры,
показывающие, что построение такого кодера вместе с соответствующим ему
декодером возможно.
Простейшим типом взаимодействия хаотических сигналов с информаци-
онными и шумовыми сигналами является линейное взаимодействие. Различ-
ные варианты взаимодействия этих сигналов приводят к содержательным за-
дачам, анализ которых показывает, что как методы, так и результаты решения
этих задач с учетом информационных свойств имеют фундаментальные отли-
чия от аналогичных задач, решаемых для нехаотических сигналов. В частнос-
ти, это относится к задачам очистки хаотических сигналов от шума (фильтра-
ции), синхронизации хаотических систем и разделению хаотических сигналов.
Оказывается, при малых уровнях шума задачи с хаотическими сигналами ре-
шаются значительно эффективнее, чем с обычными сигналами. Однако в этих
задачах существует порог на уровень шума, при превышении которого качество
решения задачи резко падает.
Примером нелинейного взаимодействия хаотических и информационных
сигналов является модуляция информационным сигналом хаотического сиг-
нала или, в более широкой постановке, ввод информационного сигнала в хао-
тический сигнал и последующее извлечение информационного сигнала.
Как только речь заходит об обработке информации, возникает вопрос
о связи нелинейной динамики и вычислительных процессов. Здесь полезно
вспомнить о работах в области предельной эффективности вычислений и пе-
редачи информации (принцип Ландауэра и обратимые вычисления Беннета).
Во-первых, в этой проблеме, как и в процессах обработки хаотических сиг-
налов, возникают принципиальные ограничения (подобные второму закону
термодинамики). Во-вторых, появляется возможность проанализировать об-
щность явления генерации информации в вычислительных процессах, с одной
стороны, и в динамических системах с хаосом, с другой стороны. В-третьих,
заявленное в упомянутых работах единство процессов вычислений, измере-
ний и передачи информации дает основание рассматривать вычислительный
процесс (и его реализацию на компьютере) как «канал связи» во временной
области. Необычным свойством такого типа «каналов связи» является то, что
поток информации на его выходе может быть больше, чем поток информации
на входе. В-четвертых, анализ проблемы предельной эффективности и предель-
ной эффективности передачи информации проводился Ландауэром [1.54, 1.55]
на примере двухъямного потенциала — вырожденного варианта нелинейного
осциллятора, который представляет собой базовый элемент при исследовании
явлений нелинейной динамики. Последнее обстоятельство наводит на мысль
о едином корне рассматриваемых проблем.
И тут мы подходим к вопросу о взаимодействии систем, производящих ин-
формацию, с окружающей средой. Эти системы можно разделить на два клас-
са: информационно-замкнутые (не обменивающиеся информацией с внешней
средой) и информационно-открытые. Анализируются условия информацион-
ной замкнутости и информационной открытости, обсуждается вопрос о связи
информационной и термодинамической открытости систем.
1.2. Синтез хаотических систем с заданной информацией
на периодических траекториях
Каждую траекторию динамической системы можно рассматривать как не-
который информационный сигнал. Тем самым совокупность траекторий
динамической системы, например одномерного отображения отрезка в себя,
представляет собой своеобразное хранилище информации в виде множества
траекторий системы. Это хранилище обладает рядом интересных свойств, про-
явление которых зависит от того, имеются ли аттракторы в динамической сис-
теме и какого они типа.
Рассмотрим некоторые из этих свойств.
Если в момент времени t = t0 задать начальные условия, то формально тра-
ектория отображения известна и однозначно определена для всех t > t0 (аналог
теоремы Коши для отображений). Если траектории вдоль ее длины сопоставлен
информационный сигнал, он может быть воспроизведен путем итерирования
отображения с заданными начальными условиями, т. е. информация извлека-
ется из памяти путем решения эволюционного уравнения.
Хранилище информации как динамическая память обладает естественны-
ми ассоциативными свойствами. Действительно, задавая любой фрагмент сиг-
нала, можно воспроизвести все его последующие значения, а в случае цикли-
ческого сигнала — и весь сигнал целиком.
Пусть в отображении имеется единственный аттрактор — неподвижная
точка. Тогда траектория, задаваемая любыми начальными условиями из об-
ласти определения отображения, сходится к неподвижной точке, а соответс-
твующий ей информационный сигнал — к постоянному значению. Текущее
информационное содержание такого сигнала по мере сходимости уменьша-
ется. «Информационное содержание» самих устойчивых неподвижных точек
в случае одномерного отображения — это значение единственной константы.
Увеличение объема записанной информации может происходить только за счет
точности задания координаты — точки равновесия, т. е. за счет улучшения раз-
решающей способности.
Если в отображении имеется аттрактор — устойчивый предельный цикл, то
все траектории со временем стягиваются к нему. Периодическую траекторию,
соответствующую предельному циклу, можно рассматривать как периодически
воспроизводимый информационный сигнал. Объем информации в таком сиг-
нале определяется длиной цикла и степенью его изрезанности (информацион-
ной насыщенностью).
Если в системе имеется единственный хаотический аттрактор, то траекто-
рия от итерации к итерации теряет информацию о начальных условиях и отоб-
ражение производит собственную информацию. При небольшой скорости про-
изводства информации аттрактор остается хорошо локализованным в фазовом
пространстве. Такие хаотические аттракторы в принципе могут хранить доста-
точно большие объемы информации. Если же производство информации вели-
ко, то хаотический аттрактор как целое становится объектом с большой неоп-
ределенностью и как хранилище информации теряет свою привлекательность.
Однако можно использовать в качестве хранилища информации его систему
неустойчивых циклов. Действительно, хаотические аттракторы содержат счет-
ное число периодических орбит [1.12–1.15]. Это вполне определенные орбиты,
которые могут рассматриваться как траектории, соответствующие информа-
ционным сигналам. Однако информация, соответствующая таким сигналам,
неконтролируема.
Для того чтобы сделать часть циклических траекторий соответствующими
содержательной информации, в работе [1.16] (см. главу 3) был предложен метод
синтеза одномерных отображений, содержащих систему циклических траекто-
рий с заданной структурой. На основе этого метода была продемонстрирована
возможность записи информации на циклических траекториях, реализация ас-
социативной памяти и других базовых операций [1.17–1.27].
Сжатие информации. В процессе записи производится специальное коди-
рование информационных последовательностей. Побочным результатом коди-
рования является обратимое (без потерь) сжатие информации — уменьшение
общего объема данных, необходимых для полного и точного описания инфор-
мационных объектов, например текстов или изображений.
Если взглянуть на этот метод кодирования как на метод сжатия информа-
ции, то оказывается, что коэффициент сжатия, достигаемый при его приме-
нении, примерно совпадает с тем, что дают другие известные методы сжатия
информации без потерь — арифметический, Лемпеля — Зива (ЛЗ), Хаффмана
[1.28].
1.3. Организация хаотических последовательностей,
содержащих требуемую информацию
Хаотическая система генерирует информацию. Эта информация неконтроли-
руема по содержанию. Можно ли заставить систему генерировать требуемую
полезную информацию? Полезную в том смысле, чтобы это была информация,
которую мы должны передать (закодировать в виде хаотического сигнала).
Рассмотрим отображение сдвига Бернулли:
см. уравнение в книге(1.1)
Свойства траекторий этого отображения удобно анализировать, используя
двоичное представление значений переменной xn. Пусть траектория отображе-
ния стартует с начального значения, лежащего внутри отрезка [0, 1] и представ-
ленного в двоичной системе счисления
см. уравнение в книге (1.2)
т. е. x0 = 0.a1a2. Действие отображения (1.1) на начальное условие (1.2) заключа-
ется в сдвиге мантиссы переменной x0 на одну позицию влево и отбрасывании
первого члена 1. Таким образом,
см. уравнение в книге (1.3)
То же самое происходит на последующих итерациях. Поэтому
см. уравнение в книге(1.4)
Представление справедливо при бесконечной точности вычислений. Пусть
теперь точность вычислений конечна, например числа описываются M битами.
Тогда
см. уравнение в книге (1.5)
т. е. см. уравнение в книге Применяя отображение сдвига Бернулли к x0, получаем x1:
см. уравнение в книге (1.6)
где означает новую открытую позицию. Как она заполняется? В зависимости
от устройства компьютера на последней позиции равновероятно появляется 0
или 1. Мы можем на каждой итерации искусственно вставлять в последнюю по-
зицию нужный информационный бит
см. уравнение в книге (1.7)
Извлечение этого информационного бита осуществляется путем M кратно-
го итерирования отображения (1.7).
Приведенный пример — тривиальный, но он показывает принципиальную
возможность подобного кодирования. Сама по себе такая кодировка интереса
не представляет.
В качестве менее тривиального примера рассмотрим симметричное «tent»
отображение, описываемое уравнением
см. уравнение в книге (1.8)
Эта система, как и сдвиг Бернулли, обладает полной символической дина-
микой. Снова рассмотрим двоичное представление переменной (1.5). Преоб-
разование переменной при применении к ней отображения сдвига Бернулли
в этом случае не так тривиально. Действительно,
см. уравнение в книге (1.9)
где S1 и S2 — появившиеся после итерации открытые позиции. Как связаны ai
и bi?
см. уравнение в книге (1.10)
На открытую позицию, как и в случае отображения сдвига Бернулли, вво-
дится информационный бит. Получаемая при итерациях «хаотическая» траек-
тория содержит полезную информацию, но «запутана» по сравнению с траек-
торией, получаемой при итерациях отображения сдвига Бернулли. В каждом
«хаотическом» отсчете будет содержаться ровно 1 бит полезной информации.
Итак, мы построили хаотический кодер. Как организовать декодер? Приемник
получает последовательность зашумленных «хаотических» отсчетов. Наша за-
дача — извлечь заложенную в них информацию.
Будем действовать следующим образом. Введем отображение, обратное
«tent» отображению. В декодер (обратное отображение) поступают, вообще го-
воря, искаженные «хаотические» отсчеты yn:
yn = xn + wn, (1.11)
где wn — шум в канале. Пусть уровень шума мал по сравнению с уровнем «хао-
тического» отсчета, но достаточно велик по сравнению с амплитудой младшего
разряда отсчета. При этих условиях мы не можем установить непосредственно,
какой бит вводится в младший разряд. Однако, у нас имеется информация о том,
какую из ветвей выбрать при итерировании двузначного отображения, обрат-
ного «tent» отображению [35, 36]. Для извлечения заложенной в n-м отсчете ин-
формации итерируем обратное отображение M раз, взяв в качестве начального
условия yn. Для устранения неоднозначности при итерировании используются
принятые ранее отсчеты yn−M, …, yn−1. При этом элементы последовательности
восстанавливаются с предельно возможной точностью, и переданная информа-
ция извлекается из последнего двоичного знака.
1.4. Линейное взаимодействие хаоса,
информационных сигналов и шума
Классическая теория информации имеет дело с двумя типами источников, по-
рождающих информацию (энтропию): источниками сообщений и источниками
шума.
Источник сообщений может порождать в единицу времени конечное коли-
чество информации, как это имеет место в случае использования конечного ал-
фавита. Он также может порождать в единицу времени количество информации
от нуля до бесконечности, если рассматривать непрерывные значения сигналов,
и иметь возможность измерять их с неограниченной точностью. Однако введе-
ние конечной точности измерений приводит к необходимости рассматривать
только состояния, различимые при данной точности измерений. Их число
конечно и информация, которая может быть воспринята от источника, также
становится ограниченной. Причиной ограниченности объема воспринимаемой
информации могут также служить шумы в канале связи.
Стандартной моделью источника шума является источник белого шума. Бе-
лый шум в источниках с дискретным временем представляет собой последова-
тельность нормально распределенных независимых отсчетов. Формально такой
шум обладает бесконечной энтропией.
Генераторы хаоса при рассмотрении их в качестве источников информации
обладают весьма специфическими свойствами:
сигналы этих источников принимают • непрерывные значения;
• средняя скорость генерации информации ограничена и в простейшем
случае систем с единственным положительным ляпуновским показате-
лем определяется выражением
см. в книге
Задачей теории информации является анализ взаимодействия источников
информации (энтропии) между собой и с приемниками. Фактически при на-
личии источников сообщений и источников шума речь может идти только о пе-
редаче информации в отсутствие шума и передаче информации в присутствии
шума, т. е. либо о взаимодействии нескольких источников сообщений, либо
о взаимодействии источников сообщений и источников шума. Дополнение
этой пары источниками хаоса существенно расширяет и усложняет картину.
Теперь возможны следующие новые комбинации взаимодействия источников
энтропии (информации): источник хаоса — источник шума; источник хаоса —
источник хаоса; источник сообщений — источник хаоса и, наконец, источник
сообщений — источник хаоса — источник шума.
Покажем, что перечисленным типам взаимодействия отвечают содержа-
тельные информационные и коммуникационные задачи.
Источник хаоса — источник шума
Хаотическая самосинхронизация в присутствии шума. Хаотическую синхрониза-
цию [1.29–1.34] можно рассматривать как процесс передачи информации через
канал с шумом от хаотического источника к приемнику, который должен вос-
произвести переданный сигнал либо точно, либо с допустимым уровнем иска-
жений [1.35–1.38]. Здесь очень важно то обстоятельство, что независимо от «фи-
зического содержания» процесса синхронизации он может осуществляться
и поддерживаться при наличии канала связи между «передатчиком» и «прием-
ником», обладающим достаточной пропускной способностью. Причем количес-
твенная величина необходимой пропускной способности канала определяется
через степень хаотичности сигнала «передатчика».
Фактически в этом случае мы имеем дело с некоторым обобщением понятия
синхронизации, поскольку она понимается не как навязывание поведения од-
ной системы другой, а как получение точной или приближенной копии сигнала
на приемной стороне (копия включает в себя также и «синхронизм» во времени
с учетом времени распространения сигнала).
Важным обстоятельством представляется также тот факт, что содержатель-
ная сторона в рассмотрении синхронизации как процесса передачи инфор-
мации имеется только в случае хаотических сигналов, поскольку количество
информации в периодических, в любых других регулярных, а также в нерегу-
лярных, предсказуемых на большие времена сигналах равно нулю.
Наконец, анализ хаотической синхронизации с точки зрения теории инфор-
мации дает повод рассуждать о принципах согласованного поведения и «син-
хронизации» систем, в которых заведомо производится обмен информацией,
но которые формально нельзя отнести к числу хаотических. Примерами таких
систем могут служить биологические сообщества, большие экономические сис-
темы, большие информационные системы (телевидение, Интернет), сообщества
государств и т. д. Можно предположить, что, несмотря на материальные потоки,
физическое взаимодействие подсистем и т. д.: а) фундаментальной причиной
координированного поведения являются процессы обмена информацией меж-
ду подсистемами; б) в системах с «синхронизацией» производство информации
способно в значительной степени компенсировать изменения материальных
потоков; в) навязывание согласованного поведения проще в тех системах, где
скорость производства информации в подсистемах минимальна; г) информа-
ционные потоки могут играть как интегрирующую, так и дезинтегрирующую
роль для целостности систем.
Другими примерами задач взаимодействия хаотических сигналов (хаоти-
ческих систем) и шума являются: радио-, акустическая и оптическая локация
на основе хаотических сигналов; различение хаотических и шумовых сигналов
[1.39, 1.40]; выделение хаотических сигналов на фоне помех [1.41].
Источник хаоса — источник информационных сообщений
Передача информации с использованием хаоса. Начиная с 1992 года был предло-
жен ряд способов передачи сигналов, использующих хаотическую динамику;
хаотическая маскировка (chaotic masking); переключение хаотических режимов;
нелинейное подмешивание (nonlinear mixing); дуальное нелинейное преобразование (inverse systems); опережающее управление сечением Пуанкаре (Predictive
Poincare control modulation); частотная модуляция хаотическим сигналом и др.
Хаотическая маскировка. Под хаотической маскировкой можно понимать
несколько различных задач. Каждая из этих задач имеет свою специфику и тре-
бует выполнения различного набора условий для своего решения.
Задача 1. Пусть имеется источник «паразитных» излучений, которые со-
держат информацию, нежелательную для приема посторонним наблюдателем.
Однако нет необходимости в приеме сообщений и «своими» пользователями.
В этом случае источник хаоса может применяться для маскировки «паразитно-
го» сигнала.
Задача 2. Имеется источник сообщений, информация от которого должна
приниматься «своим» пользователем (пользователями), и нежелательно, чтобы
она принималась посторонними наблюдателями. В этом случае источник хаоса
может применяться для маскировки информационного сигнала. «Свои» поль-
зователи обеспечиваются компенсаторами маскирующего сигнала.
Задача 3. Имеется n своих и m чужих источников сообщений, работающих
в одном и том же диапазоне частот. Задача заключается в том, чтобы «накрыть»
этот диапазон маскирующим «одеялом» так, чтобы, во-первых, обеспечить
скрытность работы «своих» пользователей с одновременной возможностью для
них компенсировать маскирующий эффект хаотического сигнала; во-вторых,
максимально затруднить работу чужих радиоэлектронных средств.
Источник хаоса — источник хаоса
Разделение хаотических сигналов. Пусть имеются две, вообще говоря, неодина-
ковые («ведущие») динамические системы, генерирующие хаотические коле-
бания. Эти колебания складываются, и суммарный сигнал передается к паре
других («ведомых») динамических систем, которые могут быть связаны между
собой. Возможна ли в этих условиях обратная операция разделения двух коле-
бательных процессов в паре ведомых динамических систем? Это и есть задача
разделения хаотических сигналов [1.42–1.44].
Источник информации — источник хаоса — источник шума
В качестве примеров такого типа взаимодействий можно привести системы
передачи информации с использованием хаоса (о которых шла речь выше), ра-
ботающие в реальных условиях с помехами. Также это многопользовательские
системы связи, использующие хаотические несущие с выделением своих сооб-
щений на «шумовом» фоне «чужих» сигналов, и, наконец, радиосреда со многи-
ми потребителями, использующими как обычные, так и хаотические сигналы
и создающими помехи друг другу.
1.5. Модуляция и демодуляция хаотического носителя
информационным сигналом
В большинстве современных систем связи в качестве носителя информации
используются гармонические колебания. Информационный сигнал в передат-
чике модулирует эти колебания по амплитуде, частоте или фазе, а в приемнике
информация выделяется с помощью обратной операции — демодуляции. Моду-
ляция носителя может осуществляться либо за счет модуляции уже сформиро-
ванных гармонических колебаний, либо путем управления параметрами гене-
ратора в процессе формирования колебаний.
Аналогичным образом можно производить модуляцию хаотического сиг-
нала информационным сигналом. Однако возможности здесь значительно
шире. Действительно, если в случае гармонических сигналов управляемых ха-
рактеристик всего три (амплитуда, фаза и частота), то в случае хаотических ко-
лебаний даже небольшие изменения значения параметра одного из элементов
источника хаоса приводят к изменению характера колебаний, которое может
быть надежно зафиксировано. Это означает, что у источников хаоса с изменяе-
мыми параметрами элементов потенциально имеется широкий набор схем вво-
да информационного сигнала в хаотический сигнал (модуляции хаотического
сигнала информационным сигналом).
В системах связи традиционен интерес к сигналам с широкой полосой час-
тот, которая используется как для увеличения скорости передачи информации,
так и для повышения устойчивости работы систем при наличии возмущающих
факторов. Хаотические сигналы являются принципиально широкополосными,
и именно это обстоятельство привлекает внимание к ним как к носителям для
передачи информации.
Рассмотрим некоторые методы модуляции хаотического сигнала информа-
ционным сигналом и соответствующие методы демодуляции.
Пусть требуется передавать двоичные данные в виде последовательности
нулей и единиц. Как можно промодулировать хаотический сигнал, чтобы его
фрагменты соответствовали нулям и единицам, а на приемном конце эти нули
и единицы можно было бы выделить?
Несколько возможных решений приведено на рис. 1.1.
1. Нули и единицы кодируются последовательно расположенными фрагмен-
тами хаотического сигнала двух видов. Первый сигнал кодирует нули, второй —
единицы. Приемник должен содержать устройство, способное фиксировать
соответствующие временные интервалы, и идентифицировать два различных
хаотических режима. Это метод модуляции, основанный на переключении ха-
отических режимов [1.45–1.47] (Chaotic Shift Keying, CSK).
2. Как и в предыдущем случае, нули и единицы кодируются последователь-
но расположенными фрагментами двух сигналов. Но теперь один из них, коди-
рующий нули, — нулевой сигнал, а второй, кодирующий единицы, — хаотичес-
кий. Этот метод модуляции в случае нехаотических сигналов носит название
«метод без возвращения к нулю» (Not Return to Zero, NRZ). В случае хаотичес-
кого сигнала его логично назвать «методом без возвращения к нулю для хаоти-
ческих сигналов» (CNRZ). В англоязычной литературе используется также тер-
мин OOK (On-Off Keying) для нехаотических сигналов и соответственно COOK
(Chaotic On-Off Keying) для хаотических.
3. В методе с возвращением к нулю (Return to Zero, RZ) через время, соот-
ветствующее положению периода после прохождения сигнала «1», производится
возврат к нулевому состоянию. Нули кодируются отсутствием на соответствую-
щих позициях сигнала. В случае хаотического сигнала это «метод с возращени-
ем к нулю для хаотических сигналов» (Chaotic Return to Zero, CRZ).
4. Для модуляции хаотических сигналов можно также использовать метод
кодирования, в котором период делится на две части и производится попе-
ременное инверсное преобразование «0» в «10», а «1» в «11» или в «00». В слу-
чае регулярных сигналов этот метод называется CMI. В случае хаотического
сигнала — CCMI.
5. Применим и метод модуляции, называемый в случае нехаотических сиг-
налов DMI, в котором при инвертировании нулей и единиц период изменяется
в два раза. В случае хаотического сигнала его логично называть CDMI.
6. Еще одной возможностью является случайное или хаотическое размеще-
ние позиций, на которых располагаются приходящие сигналы, причем закон
расположения позиций известен как отправителю, так и получателю.
Перечисленные типы модуляции (кодирования) предназначены для канала
с одним пользователем. Однако часть из них может быть обобщена на много-
пользовательские системы. Например, если в методе CRZ увеличить интервалы
времени, на которые производится возврат к нулю (т. е. интервалы времени,
в которые сигнал не передается), то в них можно разместить сигналы от дру-
гих пользователей, обеспечивая тем самым временное разделение сигналов для
многопользовательского доступа.
Приведенные примеры методов модуляции хаотических сигналов показы-
вают, что здесь применимы как традиционные для техники связи, так и относи-
тельно новые подходы. А как обстоит дело с демодуляцией?
Для демодуляции хаотических сигналов могут применяться как когерен-
тные, так и некогерентные методы. Среди когерентных методов большой по-
тенциальный интерес представляют методы, использующие хаотическую
синхронизацию. Методы когерентной демодуляции на основе хаотической
синхронизации имеют ряд очень привлекательных черт, однако им свойственен
такой существенный недостаток, как слабая устойчивость к рассогласованию
параметров передатчика и приемника, шума в канале и к другим возмущаю-
щим факторам.
Поэтому наряду с усилиями, направленными на поиск более устойчивых
схем когерентного приема, уделяется большое внимание некогерентным мето-
дам приема. В простейшем случае это могут быть методы прямого детектирова-
ния хаотического сигнала с выделением огибающей, соответствующей инфор-
мационному сигналу. Расчеты показывают, что при всей своей простоте этот
метод демодуляции является достаточно эффективным, а в сложных условиях
распространения сигнала даже более эффективным, чем когерентные методы.
Могут быть также использованы и относительные методы передачи
(см. главу 9).
1.6. Информация и вычисления
Долгое время информация рассматривалась как нефизическая, простая запись
состояния осязаемой материальной Вселенной, существующая вне физики
и никак не связанная с областью, управляемой законами физики. Однако изу-
чение физики, вовлекаемой в обработку информации (особенно с применением
компьютеров), привело к твердому выводу, что информация — больше не ме-
тафора. Она не является чем-то абстрактным и субъективным, но реальна как
атомы, энергия или горы. Информация может быть количественно определе-
на. Она всегда воплощена в некотором физическом представлении, таком, как
чернила на бумаге, отверстия в перфокарте, магнитные структуры на флоппи-
дисках или расположение атомов в ДНК. Одно из самых глубоких и наиболее
важных открытий современной науки: информация — физична.
В своем гипертрофированном варианте принцип физичности информации
привел к идее о Вселенной как компьютере, которая, в свою очередь, базируется
на не менее содержательном принципе, утверждающем, что Вселенная может
быть фактически описана в терминах обработки информации [1.48].
Принцип Ландауэра. В 1950-е годы в IBM проводились исследования по вы-
яснению основных физических ограничений на вычислительный процесс.
Изучением проблемы, которая в то время имела слабое отношение к технике
разработки компьютеров, занимался Р. Ландауэр. Реально даже в наши дни
компьютеры расходуют энергии значительно больше, чем принципиальный
фундаментальный нижний предел.
«Когда реальность находится так далеко от фундаментальных пределов,
пределы не используются в качестве ориентиров для технологов, — писал Лан-
дауэр. — Тогда почему мы этим занимаемся? Потому, что это находится в самом
центре науки. Наука, и физика в особенности, выражена в терминах математи-
ки, т. е. в терминах правил для оперирования с числами. Информация, числен-
ная или другая, не является абстракцией, но неизбежно связана с физическими
представлениями. Поэтому обработка информации неизбежно связана с физи-
ческой величиной, ее содержанием и ее законами» [1.49].
В своих поисках (конечных) пределов обработки информации Ландауэр
руководствовался примерами шенноновского канала как наиболее эффектив-
ной системы связи и вопросом Карно о предельной эффективности тепловой
машины. Задача была найти путь понимания фундаментальных пределов для
эффективности вычислений, которые (пределы) не зависят от конкретной вы-
числительной машины.
Общий знаменатель между теорией Шеннона и теорией паровой машины
заключается в том, что в обоих случаях были найдены пределы, по которым то,
что вы пытаетесь сделать, не зависит от деталей выбранной технологии. Точно
так же должен существовать путь обсуждения вычислительного процесса и его
энергетических пределов, безотносительно к тому, будем ли мы говорить о ре-
лейной логике или логике на основе интегральных микросхем, должен сущест-
вовать путь делать это на более фундаментальной основе.
Идеальная эффективность. Насколько в принципе может быть эффективен
компьютер? Наряду с упоминавшимися выше теориями Карно и Шеннона,
при анализе этого вопроса на Ландауэра оказали влияние взгляды Леона Брил-
люэна. В середине 1950-х годов вышла ставшая знаменитой книга Бриллюэна
«Наука и теория информации» [1.50], в которой рассматривалась связь между
наукой (в основном физикой) и информацией. Тот вид, в котором это было сде-
лано, Ландауэр счел неудовлетворительным. Он посчитал, что должен сущест-
вовать более интересный путь размышления об этом.
В частности, в своей книге Бриллюэн анализировал парадокс демона Мак-
свелла с позиций допущения, что демон не может видеть в темноте. Следова-
тельно, требовалось бы подсветить приближающуюся молекулу для того, чтобы
увидеть ее и измерить ее скорость. Энергия, требуемая для подсветки, превы-
шала бы энергию, спасенную демоном, оставляя справедливым второй закон
термодинамики. Другие ученые того времени объясняли парадокс демона в та-
кой же манере.
В конечном счете этот подход был основан на вычислениях Шеннона, каса-
ющихся того, какое требуется количество энергии, чтобы послать сообщение.
Измерение чего-то означает приобретение информации, что в основе своей то
же самое, что и передача информации. И Шеннон показал, что посылка бита
информации по телефонной линии требует минимального количества энергии,
которой обладает типичная молекула, находящаяся в окрестности при комнат-
ной температуре.
Ландауэр при анализе парадокса демона Максвелла осознал, что если из-
мерения подобны передаче информации (что становится ясно из анализа ситуа-
ции с демоном Максвелла с помощью теории Шеннона), то они также подобны
вычислениям [1.51–1.54] — все три процесса относятся к обмену информацией.
Если Бриллюэн был прав, то вычисления требовали бы неизбежной потери
энергии на каждом шаге вычислений, тех же самых, что и каждое измерение для
молекулы демона Максвелла. Однако Ландауэр предположил, что существует
не только этот путь для передачи информации. Анализ Шеннона был проведен
для специального случая. Существуют пути передачи сообщений, отличные
от колебаний в проводах.
«Я не обязан передавать информацию именно этим путем (с помощью ко-
лебаний в проводах), — говорит Ландауэр. — Я могу передать вам флоппи-диск
или использовать для этой цели обыкновенную почту». Обоснование этой идеи
было изложено в статье «Энергетические требования для передачи информа-
ции» [1.55]. Однако эта статья пока не вызвала такого резонанса, как другая —
главная статья Ландауэра.
Главная статья Ландауэра (в соавторстве с Дж. Свенсоном) опубликована
в 1961 году в IBM Research Journal [1.54]. Там было объяснено, что вычисления
сами по себе не требуют никакого, даже минимального расхода энергии. Со-
единение двух систем вместе для обеспечения информационного обмена может
быть реализовано таким образом, что не будет никакой потери энергии. Иде-
альная вычислительная система может в принципе манипулировать информа-
цией, не производя тепловых отходов вообще. Ключ объяснения состоял в по-
нимании того, что вычисления могли быть все более и более медленными для
уменьшения трения, вызывающего тепловые потери. Стирание же информации
всегда производит тепло, которое рассеивается в окружающей среде.
Необходимые потери (затраты) энергии не зависят от того, как вы стирае-
те информацию и какого она вида. Тот факт, что стирание требует (некоторой)
минимальной затраты энергии, известен теперь среди компьютерных физиков
как принцип Ландауэра.
Пример с баскетбольными мячами. Простой пример с баскетбольными мя-
чами демонстрирует, что стирание информации производит тепло, которое
рассеивается в окружающей среде. Рассмотрим систему для представления ин-
формации, состоящую из двух мячей. Положите один из них около своей левой
ноги и держите другой в правой руке. Мяч на полу соответствует состоянию «0»,
мяч в руке — состоянию «1». Вы играете роль человека — флоппи-диска с емкос-
тью информационной памяти (записи) в два бита. Теперь ваше задание стереть
бит «1» в вашей правой руке. Решение звучит довольно просто — бросить мяч.
Но мяч после броска не займет просто состояние «0» на полу. Вместо этого он
отскочит. Фактически, если вы имеете совершенный эластичный мяч и хоро-
ший жесткий пол, он отскочит прямо обратно вам в руку, в положение, соот-
ветствующее состоянию «1». Чтобы перейти в состояние «0» — стереть бит «1»,
мяч должен испытать трение о молекулы воздуха и пола. После каждого отскока
мяч будет достигать все меньшей и меньшей высоты. В конечном счете трение
оставляет мяч на полу и «1» стирается. Но почему? Только потому, что энергия
от отскочившего мяча была передана полу и воздуху. В вакууме и с полом без
потерь мяч отскакивал бы вам в руки постоянно (неопределенно долго). Ин-
формация может быть стерта, только если в процессе расходуется энергия.
Обратимые вычисления. Итак, энергия нужна для вычислений, поскольку
необходимо стирать информацию по пути. Удаление информации требует за-
трат энергии.
Спустя несколько лет коллега Ландауэра по IBM Беннетт переформулиро-
вал вопрос следующим образом. Допустим, вы нашли способ вычислений без
стирания какой-либо информации. Тогда вы могли бы не затрачивать никакой
энергии.
Предположим, вы не пытаетесь спасти всю промежуточную информацию,
рассуждал Беннетт. Если все шаги вычислительного процесса могут быть об-
ращены, заключил он, тогда вся предыдущая информация может быть реконс-
труирована. Предположим, что вы разработали вычислительные шаги так, что
они могут быть восстановлены без размещения каждого шага в памяти. Вы про-
граммируете компьютер не запоминать все, что он сделал, а фиксировать место,
где это было сделано. Другими словами, в любой точке в потоке вычислений
(вычислительного потока) вы можете переключить устройство «на обратный
ход» и послать компьютер к его исходной точке. Такой «обратимый компьютер»
способен восстановить все логические шаги, включенные в формирование его
вычислений. Запускаем компьютер вперед для получения вашего ответа, затем
запускаем его назад для получения всей информации, которая была вовлечена
для получения этого ответа.
Работа Беннетта [1.56] показала, что компьютер в принципе не обязан
в действительности хранить любую информацию. Поэтому вычисления могут
быть организованы так, чтобы тратить энергию настолько мало, насколько это
потребуется, и без необходимости в больших объемах памяти. «Если вы делаете
все верно, это не замедляет все очень сильно и не заставляет использовать очень
большую память», — говорил Беннетт. Подумайте о переходе реки с использова-
нием нескольких специальных камней. Вы можете собирать камни и размещать
их обратно в воде согласно определенным правилам. Применяя эти правила,
вы сможете пересечь реку, используя лишь несколько камней. А еще использо-
вание правил позволяет вам точно восстановить свои шаги, и, таким образом,
информация о том, как вы переходите реку, будет сохранена. Точно так же обра-
тимые компьютеры, используя соответствующие правила, могут осуществлять
сложные вычисления, избегая совершать действия по сохранению информации
о каждом шаге на пути.
Когда Беннетт впервые предложил обратимые вычисления, сам Ландауэр
сомневался. В течение месяцев он предполагал, что что-то при анализе было
упущено. Ричард Фейнман также сначала был настроен скептически. Однако
оба в конце концов осознали, что идея Беннетта работает [1.57]. Ландауэр мно-
го раз возражал: «Существует некоторое, абсолютно минимальное количество
энергии, необходимое для обработки одного бита информации. Это просто не-
правда». «В действительности не существует никаких пределов на обработку
информации, — настаивал он, — измерение не требует диссипации энергии, точ-
но так же как передача информации» [1.54].
В течение многих лет схема обратимых вычислений, предложенная Беннет-
том, представляла интерес только для фундаментальной физики, а не для созда-
ния реальных чипов. Но постепенно обратимые вычисления входят в жизнь.
Так, Ральф Меркль из исследовательского центра фирмы Xerox в Калифор-
нии считает, что для практики обратимые вычисления не обязаны быть совер-
шенными. Энергию можно экономить, даже если только часть вычислений бу-
дет обратимой.
Схема обратимых вычислений, предложенная Беннеттом, обходит преде-
лы, налагаемые принципом Ландауэра. Поэтому цель конструкторов, занима-
ющихся снижением потребления энергии компьютерами, заключается в том,
чтобы использовать типы обратимых шагов, которые сохраняют исходную ин-
формацию настолько широко, насколько это возможно. Некоторые инструкции
в компьютере обратимы, а другие — нет. Вы не обязаны иметь полную обра-
тимость для всего компьютера. Грамотное проектирование аппаратуры может
сделать большинство шагов обратимыми, спасая большое количество инфор-
мации и, таким образом, спасая большое количество энергии.
Обратимые вычисления иллюстрируют, как важно принимать во внимание
при конструировании компьютеров тот фундаментальный факт, что информа-
ция реальна и физична.
1.7. Обобщенный канал связи и вычисления
Теория Шеннона имеет удивительную особенность. Для выяснения возмож-
ности передачи информации из одной точки в другую она использует поня-
тие канала связи, в котором не фигурирует в качестве переменной расстояние.
Вместе с тем понятие канала связи позволяет рассматривать передачу информа-
ции не только через пространство, но и через время. По существу, имеется как
минимум два типа коммуникационных каналов: 1) канал для передачи инфор-
мации между двумя пространственными точками, расстояние между которыми
D, и 2) канал для передачи информации через временной интервал T.
Примерами передачи информации через канал второго типа являются запи-
си информации на бумаге, жестком диске, CD с последующим ее прочтением.
В ряде случаев к каналам второго типа (передача информации через интервалы
времени) применимо понятие пропускной способности канала. При этом по-
является возможность осознать взаимосвязь между вычислениями и передачей
информации, обозначенную в принципе Ландауэра.
Рассмотрим следующую структуру коммуникационного канала второго
типа. Имеется источник информационного сообщения в виде начальных усло-
вий для решения некоторой задачи на компьютере. Обозначим эти начальные
условия через x X, где X — множество всех начальных условий для данной про-
граммы P, реализованной на компьютере. Будем рассматривать компьютер как
коммуникационный канал, на вход которого поступает информация х, содер-
жащая некоторое количество бит, и на выходе которого через время T появляет-
ся результат работы программы (алгоритма, компьютера) в виде решения y Y,
принадлежащего множеству возможных для этой задачи решений Y.
О передаче какой информации идет речь? Перед решением задачи была пол-
ная неопределенность в отношении того, что из себя будет представлять резуль-
тат работы программы. Пусть Y состоит из N возможных равновероятных реше-
ний. В результате работы компьютера мы получаем знания о том, какое именно
решение выбрано. Таким образом, неопределенность полностью исчезла и на
выходе появляется информация в объеме log2N бит. Эта информация и была пе-
редана через канал за время T. Отсюда пропускная способность канала второго
типа равна
см уравнение в книге (1.14)/
Значение C определяется рядом факторов, в частности производительнос-
тью компьютера и сложностью задачи.
Таким образом, вычислениям можно сопоставить некоторый коммуника-
ционный канал, что подтверждает общность процесса передачи информации
и процесса вычислений.
Справедливо ли обратное, т. е. может ли произвольный коммуникационный
канал быть представлен в виде вычислительного процесса? Какими свойствами
обладают каналы типа вычислительного процесса?
Рассмотрим пример с синхронизацией двух хаотических систем через пере-
дачу информации от ведущей системы к ведомой системе [1.35–1.38].
Пусть необходимо обеспечить точность синхронизации в n бит. Пренебре-
жем тем фактом, что из-за разбегания траекторий ведомая система действует
как усилитель шумов (т. е. понижает пропускную способность канала связи).
Тогда требуемая точность передачи отсчетов равна n битам и, следовательно,
необходимая пропускная способность канала связи равна n бит на отсчет хао-
тической системы.
Пусть для определенности динамическая система представляет собой одно-
мерное отображение и генерирует один бит информации на отсчет. Тогда, при-
меняя преобразователь хаотических отсчетов в двоичный поток, мы получаем
поток данных в канале первого типа равный одному биту на отсчет динамичес-
кой системы.
Восстановление хаотических отсчетов на входе ведомой хаотической систе-
мы в схеме синхронизации через передачу информации осуществляет обратный
преобразователь. Он производит на каждом временном интервале, соответству-
ющем длине такта системы, ровно n бит информации путем обработки входного
сигнала. В каком-то смысле он в n раз усиливает (увеличивает) информацион-
ный поток. Тем самым преобразователь увеличивает общую пропускную спо-
собность «комбинированного» канала связи, состоящего из последовательно
соединенных пространственного и временного каналов. Эта дополнительная
информация производится самим обратным преобразователем.
Вывод 1. Устройства обработки принимаемого сигнала могут повышать про-
пускную способность канала связи.
Этот вывод не противоречит обычным представлениям о пропускной спо-
собности канала связи. Действительно, осуществляя фильтрацию шумов, мы
также повышаем пропускную способность канала, поскольку уменьшаем уро-
вень шумов в приемнике.
Однако здесь имеется и существенная разница.
Вывод 2. Линейные устройства обработки информации не позволяют уве-
личить поток выходной информации по отношению к входному (в канал). При-
менение же схемы обработки вычислительного (вообще говоря, необратимого)
процесса может приводить к дополнительному производству информации
и, соответственно, к увеличению ее потока по сравнению с входным потоком.
А это похоже на те процессы, которые свойственны живым системам и которые
отличают их от неживых [1.58].
Замечание. Представим себе, что на передающей и приемной сторонах име-
ются две одинаковые машины Тьюринга. Каждая из машин при своем функ-
ционировании в силу логической необратимости производит в процессе своей
работы информацию. Мы можем по шагам передавать информацию от маши-
ны-передатчика к машине-приемнику. Для того чтобы передавать всю эту ин-
формацию, необходим достаточно высокоскоростной канал. Однако можно
поступить и по-другому. Задать одинаковые начальные состояния машин (для
чего передать в машину приемника необходимые начальные условия) и запус-
тить машину в приемнике. При этом получатель будет принимать в точности ту
же информацию, которую он получал при непосредственной передаче данных
с выхода машины передатчика. Возникает вопрос: а не банальность ли это? Мо-
жет быть, информация фактически уже имеется на приемной стороне и «зарыта»
в конструкции машины Тьюринга? Ответ заключается в том, что множество воз-
можных начальных состояний настолько велико, что случайно воспроизвести
нужный результат не представляется возможным. По существу, здесь идет раз-
мен информации, передаваемой по каналу, на информацию, порождаемую ма-
шиной Тьюринга. Но для внешнего наблюдателя это одна и та же информация.
1.8. Информационно-открытые системы
При синхронизации двух систем связи через передачу информации уменьшение
объема данных, передаваемых через пространственный канал связи, по сравне-
нию с синхронизацией на основе передачи самого хаотического сигнала ком-
пенсируется дополнительными вычислениями, которые трактуются как преоб-
разование и «усиление» информации во временном канале связи. «Экономия»
в пропускной способности канала связи весьма значительна: примерно в 10 раз
для синхронизации с относительной точностью ~10−3.
Имеются ли пути дальнейшего уменьшения объема передаваемой информа-
ции за счет дополнительных вычислений на приемной стороне? Чтобы ответить
на этот вопрос, необходимо ввести понятия информационно-открытых и ин-
формационно-замкнутых физических систем.
Пусть имеется динамическая система , описываемая некоторыми эволюци-
онными уравнениями для переменной x RN, где N — размерность фазового про-
странства системы. Поведение можно изучать, квантуя ее по времени и пере-
менной состояния. Основная идея заключается в делении множества возможных
состояний на конечное число ячеек и нахождении маршрута, определяющего,
к какой ячейке относится состояние системы при каждом такте часов. Каждая
ячейка описывает информационное состояние системы и ассоциируется с не-
которым «символом», и, таким образом, информационная эволюция системы
описывается бесконечной последовательностью символов.
Будем называть систему информационно-открытой системой, если она
связана с внешней по отношению к ней средой таким образом, что эта связь
приводит к изменению информационных состояний системы в процессе ее
эволюции относительно такой же системы, не связанной с внешней средой
В противном случае будем называть систему информационно-замкнутой
системой.
Термодинамическая и информационная открытость системы вещи, вооб-
ще говоря, разные. В частности, термодинамическая открытость системы еще
не означает информационной открытости (хотя такое и может быть, см. пример
с баскетбольными мячами).
Каждая динамическая система, на которую воздействует внешний шум, мо-
жет рассматриваться по отношению к среде, порождающей этот шум, как кан-
дидат на информационно-открытую для этой среды систему. Она будет инфор-
мационно-открытой в том случае, если уровень внешнего шума таков, что шум
способен изменить информационную эволюцию системы.
Рассмотрим примеры, которые поясняют понятие информационной
открытости.
Пример 1. Пусть имеется диссипативный осциллятор с двухъямным потен-
циалом и внешним гауссовским шумом. Динамика осциллятора описывается
уравнением
см. уравнение в книге (1.15)
Связь с внешней средой осуществляется через шум (t). Система имеет два
информационных состояния: около левого и около правого положений рав-
новесия. Обозначим их соответственно через состояние «0» и состояние «1».
Если >> 1, то имеет место случай передемпфированного осциллятора, дина-
мика которого в нормированном виде описывается уравнением
см. уравнение в книге (1.16)
см. уравнение в книге (1.17)
При малых значениях система является практически информацион-
но-замкнутой, поскольку связь с внешней средой, осуществляемая за счет
воздействия гауссовского шума, не меняет информационного состояния сис-
темы. Однако при увеличении вероятность перехода в другое состояние на-
чинает существенно отличаться от нуля. При больших амплитудах шума тра-
ектория время от времени перескакивает через барьер, система «воспринимает»
внешнюю информацию, ее информационное состояние меняется при каждом
перескоке, и она становится информационно-открытой.
Количественно вероятность перехода rk от одного состояния к другому оп-
ределяет соотношение Крамерса:
см. уравнение в книге (1.18)
В рассмотренном примере существенно наличие порогового значения вне-
шнего шума, ниже которого система является информационно-замкнутой,
а выше — информационно-открытой.
Пример 2. Физически реализованная хаотическая гиперболическая систе-
ма, описываемая одномерным отображением
см. уравнение в книге (1.19)
где nm — символ Кронекера. Гиперболические хаотические системы обладают
высокой чувствительностью к возмущениям. В них сколь угодно малое возму-
щение траектории порождает траекторию, экспоненциально быстро расходя-
щуюся с невозмущенной и, следовательно, с другим информационным содер-
жанием. Эволюция информационных состояний самой возмущенной системы
также отличается от информационной эволюции невозмущенной системы. По-
этому гиперболическая система является информационно-открытой при сколь
угодно малом значении , т. е. для нее порог внешнего шума, при превышении ко-
торого информационно-замкнутая система становится информационно-откры-
той, отсутствует (равен нулю).
Таким образом, информационный обмен между гиперболической системой
и внешней средой существует при любом ненулевом уровне взаимодействия.
Это подтверждает идею Ландауэра о том, что передача информации, вообще го-
воря, не требует затрат энергии.
Пример 3. В отсутствие внешнего воздействия информационно-замкнуты-
ми системами являются системы с конечным числом состояний. Важным под-
множеством (подклассом) таких систем являются типичные компьютеры.
Вернемся к синхронизации.
При обычном подходе к хаотической синхронизации мы должны постоянно
передавать от одной системы к другой, как минимум, одну из компонент сигна-
ла (содержащую всю информацию о нем).
Мы можем сократить объем передаваемой информации до некоторого ми-
нимального объема, достаточного для восстановления сигнала. Предельное
значение этого объема равно производству информации самой системой.
Наконец, если ведущая и ведомая системы являются информационно-за-
мкнутыми и реализуются на типичных процессорах, то по наблюдаемому сиг-
налу от ведущей системы мы можем идентифицировать ее информационное
состояние, после чего всю необходимую для синхронизации информацию (рас-
чет траектории) производить в приемнике, уменьшив поток информации через
коммуникационный канал до нуля.
При случайной потере синхронизации ее можно будет восстановить путем
дополнительных краткосрочных наблюдений за приходящим сигналом.
1.9. Çàêëþ÷åíèå
Интерес к взаимосвязи детерминированного хаоса и информации наблюдается
уже в течение длительного времени. Однако в последние годы в этом интересе
появились принципиально новые элементы. Они связаны прежде всего с при-
менением хаотических сигналов для передачи сообщений. Оказалось, напри-
мер, что такое явление, как синхронизация, обобщенное на хаотические сис-
темы, может рассматриваться через процесс передачи информации от одной
системы к другой. Хаотические колебания могут выступать как в роли носи-
телей информации, так и в роли процессов, маскирующих информационные
сигналы. Они могут применяться при активном зондировании (в частности,
радиолокации) и служить информативными индикаторами характера естест-
венных и искусственных процессов. Применение динамического хаоса для пе-
редачи информации порождает новые возможности для мультиплексирования
и демультиплексирования сигналов.
Перечисленные вопросы составляют только часть задач, в которых про-
является необходимость анализа информационных аспектов взаимодействия
хаотических сигналов между собой, с другими типами сигналов и их воздейс-
твия на соответствующие приемные устройства. Характер этих взаимодействий
существенно отличается от соответствующих взаимодействий для типичных
сигналов, рассматриваемых в классической теории информации, и может стать
мощным источником повышения эффективности коммуникационных систем.