|
Егоров Дмитрий Геннадьевич О Единстве экономической теории |
|||||||||||
|
Приложение 1. Информация, энтропия, развитие, мышление i.3. Противоречит ли развитие законам термодинамики?
i.1. Определение информацииИнформация – предельно общая (философская) категория. Это - мера неоднородности, или структурированности, или порядка: «Современной науке известны три фундаментальные и взаимосвязанные субстанции Универсума: материя, энергия и информация. Масса рассматривается как мера воздействия гравитации на материю и мера инерции; энергия — как мера движения материи; информация, понятая в количественном смысле, — как мера организации, присущей материальным объектам.»[1] Возможна трактовка информации и как меры влияния одной системы на другую.[2] Существует математическая функция, со свойствами, позволяющими служить мерой информации:[3] Информацией или неопределенностью называется вещественнозначная функция событий, зависящая только от вероятности событий и удовлетворяющая следующим условиям: 1. Событие, наступающее с вероятностью единица, имеет нулевую неопределенность. 2. Если одно событие имеет меньшую вероятность, чем другое, то неопределенность первого события больше неопределенности второго. 3. Неопределенность одновременного наступления двух независимых событий равна сумме их неопределенностей. Обозначая информацию I и вероятность W, найдем, какая функция f будет удовлетворять этим условиям. В соответствии с условием (3) I=I1+I2 , а в соответствии с теорией вероятности: W=W1W2 тогда f(W1W2)=f(W1)+f(W2). Чтобы решить это функциональное уравнение, достаточно продифференцировать его по W1 и W2: f’(W) +W f’’(W)=0. Общее решение этого дифференциального уравнения имеет вид:[4] f(W)= a ln(W)+C. Изменение коэффициента а в данной формуле будет соответствовать изменению основания логарифмов; в дальнейшем изложении мы не будем принимать его во внимание, и за исключением особо оговоренных случаев будем использовать натуральные логарифмы. Замена основания логарифмов во всех формулах данной работы безусловно возможна, но она повлечет за собой только изменение масштаба отсчета без изменения сути. Абстрагируясь от постоянной интегрирования С, получаем соответствие первому условию: ln(1)=0. Функция вида f= ln W была предложена Хартли[5] для оценки совокупной неопределенности событий. Это - единственная функция, удовлетворяющая условию (3). Для Р равновероятных событий вероятность каждого Рi из W равна Рi =1/W, тогда f(W)=a ln(W)=a ln(1/P)=-a ln P, что соответствует условию (2): монотонно убывающей искомая функция будет только при отрицательных а. Количество информации, приходящееся на одно равновероятное событие равно: f(W)=-Р ln P. Переходя к общему случаю, зададим функцию распределения вероятности на интервале [0,1]: ò p(x) dx =1. Тогда: (i.1)
I= ò p(x) f (x)
dx = -ò p(x) ln (x)
dx или для дискретно заданной функции распределения:[6] (i.2) I = -åpi ln pi при условии åpi =1. Формула (i.2) является основной для расчета информации I. p1, p2, p3 ...pi - значения какого-либо признака в точках 1,2,3...i, либо вероятности встречаемости значений какого-либо признака в интервалах 1,2,3...i. Совокупность значений какого-либо признака, нормированная так, чтобы сумма была равна 1, называется функцией распределения. Функция распределения pi в общем случае (способ 1) рассчитывается путем разбиения всего исследуемого ряда данных на ряд классовых интервалов (1...i), с последующим подсчетом количества измерений, попавших в каждый класс и делением каждого значения pi на сумму pi (pi / åpi). Возможно также интерпретировать сами значения признака в вероятностном смысле (способ 2). Предельные значения информации (Imin-Imax): I при каком-либо pi=1 обращается в нуль, если же p1 = p2 = p3 =... pn=1/n, то I=log n - максимально возможное ее значение (n - число компонентов в системе). Из этой же формулы вытекает, что значение информации (I) меняется в зависимости от того, на сколько элементов мы разбиваем исследуемую систему.[7] Иными словами, информация – прагматичный параметр, величина которого зависит от структурного уровня, на котором мы систему исследуем. Но на заданном уровне это величина объективная.В основополагающих работах Шеннона по теории информации[8] это понятие рассматривается как мера неопределенности, степени нашего незнания о системе. Такая интерпретация была задана фактически самой задачей (исследование устойчивости и полноты передачи сигнала при использовании какого-либо канала связи), при решении которой Шенноном и была разработана теория информации. В то же время эта же функция I является характеристикой разнообразия самой системы.[9] Именно это является ее наиболее ценным прагматическим свойством при анализе естественнонаучных данных (в отличие от собственно теории информации, посвященной теории передачи сообщений).
i.2. Информация и энтропияФормула (i.1) соответствует одной из форм записи термодинамической энтропии.[10] Энтропия в соответствии со 2-м законом термодинамики является неубывающей функцией, что вводит в термодинамику понятие необратимого процесса (т.е. процесса, при котором произошло увеличение энтропии: соответствующие начальные условия уже не могут быть восстановлены). Существует огромное количество работ, в которых второе начало рассматривается как универсальный закон, применимый к распределениям данных любой природы.[11] При таком подходе по распределениям каких-либо параметров рассчитываются значения I, а затем производится интерпретация в терминах роста-уменьшения упорядоченности и т.д. Ввиду того, что такого рода рассуждения встречаются в очень многих работах, посвященных как синергетической проблематике в общем,[12] так и применительно к экономическим системам,[13] мы считаем необходимым остановиться на вопросах соотношения информации и энтропии, а также того, противоречит ли 2-й закон термодинамики прогрессивной эволюции на более высоких (по отношению к тепловому движению молекул) уровнях бытия. Понятие энтропии S было введено Клаузиусом (при рассмотрении им круговых тепловых процессов) как функции состояния, не зависящей от пути процесса, и определено им как отношение изменения теплоты к температуре: DS=DQ/T. Больцманом в рамках микроскопической теории энтропия была непосредственно связана с числом W допустимых микросостояний системы в данных термодинамических условиях, т.е. получила вероятностное обоснование. Позже М.Планк записал эту связь между энтропией и вероятностью в виде: (i.3) S = k ln W, где k - постоянная Больцмана. Формула (i.3) может быть сведена (с точностью до знака) к форме (i.2), что и позволяет рассматривать термодинамическую энтропию как аналог информации. Далее мы будем рассуждать не о трактовке 2-го начала в рамках термодинамики (в пределах физики предмета для спора нет), а о вопросе, допустимо ли придание второму началу термодинамики онтологического статуса, возможна ли его трактовка как общего принципа, выходящего собственно за рамки термодинамики. С нашей же точки зрения, расширение термодинамического подхода за пределы собственно термодинамики несет в себе внутреннее противоречие. Заметим, что со вторым началом термодинамики связаны даже не одна, а две проблемы: с одной стороны, это проблема обратимости во времени уравнений механики, что вступает в противоречие с термодинамической необратимостью процессов; с другой стороны, второе начало термодинамики в его классическом истолковании противоречит также идее прогрессивной эволюции.[14] На наш взгляд, обе эти проблемы взаимосвязаны, и при этом равно искусственны. В одной из недавних работ Г.А.Мартынов пишет: “В начале века она [проблема противоречия между динамикой и термодинамикой в связи с возрастанием энтропии] привлекала к себе пристальное внимание; сейчас интерес к ней заметно упал, но не потому, что проблема была решена, а, скорее, потому, что все привыкли к мысли, что ее решить невозможно. Я, однако, полагаю, что подобный пессимизм вряд ли оправдан”.[15] Присоединяясь к процитированному высказыванию, мы, со своей стороны, считаем, что основой для разрешения этой проблемы может послужить онтологический принцип единства мира. Обсуждаемое противоречие существует в наших описаниях природы, а не в природе как таковой. Природа едина по своей сути, и не может обладать логически противоречащими друг другу свойствами.[16] Соответственно, если мы имеем противоречивые описания природы, то, по меньшей мере, в одном из анализируемых описаний содержится логическая ошибка, либо оно неправомерно обобщено. Таким образом, для решения означенной проблемы необходимо не столько приложение методов математической физики, сколько тщательный онтологический и эпистемологический анализ соотношения оснований механики и термодинамики, с целью нахождения этой скрытой ошибки, которая и приводит к кажущемуся противоречию. На наш взгляд, этой ошибкой является нарушение закона тождества при интерпретациях второго начала термодинамики: в процессе рассуждений, приводящих к “противоречию” между механикой и термодинамикой, 2-е начало сначала трактуется как закон статистический,[17] а затем к нему предъявляются требования (безосновательно!) как к закону динамическому (истинному всегда и везде, при любых условиях). “Противоречие” между динамикой и термодинамикой – следствие этого неправомерного (для вероятностного по своей сути утверждения) статуса 2-го начала, что и налагает запрет на некие динамически возможные состояния.[18] В своих работах И.Пригожин и его соавторы акцентируют внимание на том, что каждый может наблюдать растворение капли частиц в воде, но никто не наблюдал обратной картины. Действительно, почему мы не наблюдаем в природе процессов типа концентрации рассеянной в стакане воды капли чернил? Краткий ответ может быть таков: из-за недостаточного времени наблюдения. Рассмотрим простую компьютерную модель типа клеточного автомата (рис. 1), на которой традиционно демонстрируются статистические закономерности термодинамических процессов. В данном случае будет проводиться моделирование диффузии. Pис. 1(а) представляет начало процесса: на микроскопическом уровне (в модели это уровень отдельных клеток, в природе это молекулы, броуновские частицы и т.д.) мы имеем просто какое-то распределение параметров (Х и не-Х) в пространстве; общая картина существования капли вещества Х во внешней среде раскрывается только при макроскопическом взгляде на систему. Зададим теперь алгоритм развития процесса: каждый временной квант какая-либо случайным образом выбранная частица будет переходить в одну из пустых соседних клеток (если они, конечно, в ее окружении есть). Через некоторое время картина, представленная на рис. 1 (а), сменится на рис. 1 (б), 1(в) и т.д. Это вполне соответствует реально протекающим процессам: капля чернил будет растворяться в воде, а молекулы газа, собранные в одном месте, будут стремиться заполнить весь объем. Обратим внимание на то, что разница между системами, изображенными на рис. 1 (а) и 1(б-г) существует только на макроскопическом уровне; с точки же зрения микроскопического описания мы имеем просто другое распределение Х в пространстве (или, если мы проинтерпретируем наш рисунок как растворение чернил: Состояние концентрации атомов чернил в одной области пространства является привилегированным только с точки зрения макроскопического описания, которое, в свою очередь существует только в чувственном восприятии наблюдателя). Распределение 1(а) принципиально не отличается от распределения 1(г), и если мы сейчас проделаем путь “а → б → в → г” в обратную сторону, то мы снова получим распределение 1(а). Почему, однако, мы не наблюдаем подобных процессов в природе - скажем, концентрации рассеянной в стакане воды капли чернил? Краткий ответ может быть таков: из-за недостаточного времени наблюдения. Состояние 1(а) является привилегированным только с точки зрения макроскопического описания, которое, в свою очередь существует только в чувственном восприятии наблюдателя - природа же состоит из атомов и энергетических полей. Переход из 1(б) в 1(в) или в 1(г) - это столь же редкое событие, как и переход из 1(б) в 1(а), но макроскопический наблюдатель не фиксирует разницы между состояниями 1(б-г) (и огромным количеством других); все эти распределения выступают под общим именем "смесь" или "хаос", в отличие от "порядка" 1(а). Выделив в нашем численном эксперименте, условно говоря, из 10n равновероятных состояний одно (1а), мы безусловно увидим в соответствии с теорией вероятности, что это уникальное состояние замещается каким-то иным и очень долго не возникает вновь. В конце концов оно все же возникнет: в течении 10n интервалов времени. В теории тепловых процессов этой крайне низкой вероятностью можно, конечно, пренебречь. На этом уровне описания термодинамика чрезвычайно эффективна, позволяя заменять огромные динамические описания несколькими макропеременными. Однако при анализе соотношения динамики и термодинамики на уровне отдельных частиц, аппроксимируемыми множествами с конечным количеством элементов, даже исчезающе малая вероятность возвращения системы в первоначальное состояние имеет принципиальное значение, в том плане, что исчезает мистический запрет на какие-то состояния динамической системы, с точки зрения термодинамики имеющие меньшую энтропию. В вероятностных терминах утверждение 2-го закона термодинамики о неуклонном росте энтропии лишается своей таинственности и звучит почти как тавтология: более вероятные процессы происходят с большей вероятностью. Поэтому введенное Эддингтоном понятие “стрелы времени”[19] представляется неосновательной экспансией термодинамики в философию - с тем же основанием можно ввести “стрелу пространства” на основе того факта, что тяготение на Земле всегда направлено к ее центру (никто ведь не считает нарушением симметрии уравнений механики тот факт, что камни самопроизвольно катятся только под гору!). Теперь обсудим второй аспект связанного со вторым началом дуализма: «противоречие» с принципом эволюции (что связано с трактовкой второго начала как универсального закона, применимого к распределениям данных любой природы). Однако, рассматривая как энтропию значение I для какого-либо распределения данных, исследователь фактически принимает гипотезу о том, что рассматриваемая им совокупность объектов аналогична “молекулярному хаосу” идеального газа Больцмана, т.е. эти объекты никак друг на друга не влияют. Поясним этот тезис компьютерным экспериментом, аналогичным изображенному на рис. 1, но теперь в алгоритм сделаем добавление: при встрече элементарные частицы будут взаимодействовать и соединяться. С какого бы места (б-г) мы не начали эксперимент, очень скоро все частицы образуют единый кластер с min I, а стало быть и энтропии, если приравнивать эти понятия.[20] Это, конечно, не опровержение 2-го начала термодинамики (как принципа именно термодинамики), а просто иллюстрация того, что ответ на вопросы о степени упорядоченности многих физических (не говоря уже о социальных) явлений (при использовании тех или иных информационных оценок) как правило формален или(и) бессмыслен. Ранее аналогичные представления были сформулированы И.Генкиным: «Обычно вероятности появления тех или иных конфигураций подсчитываются на основе модели идеального газа. Но ясно, что такая модель имеет весьма далекое отношение к мегамиру, одна из основных черт которого – наличие дальнодействующих сил тяготения… Известно, что равномерное распределение вещества в пространстве не может быть стационарным, а должно либо расширяться, либо сжиматься… вопреки распространенным представлениям более вероятно именно состояние вещества с развитой структурой, а отнюдь не первозданный хаос… Представление, согласно которому появление предпочтительных структур маловероятно, основано на недоразумении, на применении комбинаторики там, где она неприменима.»[21] Иначе говоря, «более вероятная структура (имеющая большую энтропию) может быть как более развитой (сложной), так и менее развитой, в зависимости от конкретной ситуации»[22]; «…распространенные представления о большей вероятности равномерного распределения («хаоса») связаны с неправомерным распространением гипотезы о равновероятности микросостояний за пределы модели идеального газа.»[23] Сложность как наличие структуры из подсистем и сложность как термодинамическая вероятность - не одно и то же. i.3. Противоречит ли развитие законам термодинамики?Каким образом та или иная трактовка второго начала термодинамики сказывается на представлениях о развитии? Вопрос этот для нашего исследования весьма важен, ибо экономика – система в общем случае развивающаяся (США начала 30-х годов прошлого века и Россия 90-х – это, все-таки, исключения). Если мы хотим приложить формализм теории информации к экономическим системам, следует выяснить, допустимо ли переносить свойства термодинамических систем (с присущими им ограничениями) на экономику, - в этом случае информационный подход в экономике вряд ли будет продуктивен. Исходя из онтологического статуса второго начала термодинамики, И.Р.Пригожин развивает философскую концепцию эволюции, в основе которой лежит идея рождения порядка из хаоса.[24] Мерой порядка в системе служит уменьшение в ней значения энтропии, последнее происходит за счет увеличения энтропии (и беспорядка) в окружающей среде. Эволюция есть ряд переходов “…хаос ® порядок ® хаос ® порядок…”, регулируемых энтропийным принципом. Мы не принимаем такой трактовки концепции развития. Прежде всего, заметим, что для образования структур необходимым условием является не поток энтропии, а поток энергии. Эти понятия взаимосвязаны только для систем, соответствующих термодинамическим идеализациям (где, действительно, развитие следует сценарию И.Р.Пригожина). Сводить, однако, к термодинамике все разнообразие системообразующих мотивов, как показано выше, недопустимо – мир не есть огромный резервуар, наполненный идеальным газом (где все связи и взаимодействия качественно равноценны). Напрашивающийся (хотя отнюдь не единственный) контрпример здесь – развитие жизни на Земле. Источник энергии, за счет которого происходит последовательное увеличение как количества, так и качества биомассы на Земле – солнечный свет. При этом излучение Солнца не сопровождается увеличением хаотизации его структуры – она, скорее, напротив, усложняется в результате термоядерных реакций, побочным результатом которых и является солнечный свет. Действительно, порядок и хаос в процессе развития оказываются сопряженными (в пространстве и/или во времени)[25] - здесь, однако, уместно вспомнить утверждение Юма о том, что пространственно-временная сопряженность не есть доказательство причинной связи. День и ночь тоже сопряжены во времени, однако день рождается не из ночи, а в результате увеличения освещенности поверхности в процессе вращения Земли. Таким образом, схему: “…хаос ® порядок ® хаос ® порядок…”, мы заменяем на: “… порядок ± хаос – порядок ± хаос - порядок …”[26]. Наши представления здесь соответствуют идеям многих других авторов: так, Ю.В.Сачков пишет, подчеркивая связь представлений о хаосе как первопотенции бытия и онтологических воззрений на второе начало термодинамики: “…представления о хаосе поддерживались и питались “выводами” о неизбежности тепловой смерти Вселенной… Подобные представления о хаосе как о некотором исходном и основном состоянии материи в литературе получили оценку как один из мифов прошлого, еще владеющих мышлением современного человека”.[27] С.Бир указывает составляющие элементы убеждений о хаосе: 1) изначальное состояние природы хаотично; 2) порядок есть нечто, вносимое в хаос, навязываемая ему структура; 3) внутри этой структуры заключен скрытый хаос второго порядка; 4) как только энергия, поддерживающая порядок, перестает поступать, все вновь возвращается к хаосу.[28] В наше время эти убеждения подпитываются онтологизацией второго начала термодинамики, однако в историческом плане они имеют длительную традицию, восходя по меньшей мере к поэме Гесиода “Теогония”: “В самом начале был сотворен Хаос, а потом широкогрудая Земля…”;[29] в последующем он был закреплен авторитетом Платона, утверждавшему, что всякие изменения в материальном мире могут быть только к худшему. В то же время существует и другая философская традиция имманентности организации, прослеживаемая С.Биром к Св. Иоанну: “В начале было Слово”[30] – это изречение утверждает атрибутивность процессов организации в природе. «Мы вполне можем исходить из не-хаоса; и нам не нужна некая “вещь”, заключающая в себя “принцип” имманентности организации. Единственно, что нам нужно, - это язык, отличный от языка Гесиода…»[31]- под языком здесь, по нашему мнению, подразумевается парадигма. Действительно, если мы непредвзято рассмотрим естественнонаучные факты, то обнаружим, что порядок – гораздо более распространен, нежели хаос. Все живые существа есть упорядоченные структуры. Земля сложена кристаллическими породами, то есть структурно-упорядоченными веществами. Планетные системы построены отнюдь не хаотично, и звезды объединены в скопления, и, далее, в Галактики, имеющие, как правило, четкую спиралевидную структуру. Таким образом, вселенная в целом предстает как упорядоченная структура, в которой наблюдаются вкрапления хаотических фрагментов (на том или ином уровне). “Порядок более естественен, чем хаос… придя [к этому утверждению], я порвал с описательными постулатами Гесиода, давившими на мое сознание грузом почти трехтысячелетней давности. Это утверждение позволило мне совершенно по-новому взглянуть на системы”.[32] Таким образом, проблема противоречия второго начала термодинамики с принципом эволюции «оказалась искусственной, и возникла она из-за непонимания природы понятия энтропии во всей его глубине. Оказалось, что энтропия не может служить мерой сложности и что эволюция в сторону усложнения вообще не противоречит эволюции в сторону возрастания энтропии.»[33] Если рассматривать экономическую систему как совокупность атомизированных индивидов, то, казалось бы, есть основания признать корректным аппроксимацию экономики термодинамической метафорой. У экономических «атомов» (т.е. – индивидов), однако, есть как минимум одно свойство, делающее такое отождествление в общем случае[34] неправомерным – способность к мышлению.
i.4. МышлениеИтак, выше мы обосновали тезис: процессы усложнения структуры запрещены вторым законом термодинамики только для термодинамических систем – т.е. систем, сложенных единообразными элементами с одним типом взаимодействия между ними. Системы, не подчиняющиеся термодинамическим ограничениям – отнюдь не исключение из правил: их достаточно много уже среди неживой природы. В еще большей степени это присуще живым системам – они преодолевают ограничения, налагаемые на простые замкнутые неодушевленные системы 2-м законом термодинамики, ввиду наличия у них идеальных моделей поведения. Модель – объект, замещающий другой объект (оригинал) в каком-либо аспекте (который нас интересует в оригинале – модель исследуется, чтобы получить информацию об оригинале). Прагматически ценной является такая модель, оперирование которой проще (экономнее, быстрее, и.т.п.), нежели оригиналом. У животных моделирование окружающей среды «встроено» в виде рефлексов. Человек способен еще и к мышлению. Мы определяем мышление как создание идеальных моделей, и оперирование ими.[35] Оперирование моделями позволяет получить предсказания о возможных изменениях в оригинале, и воздействовать на оригинал не хаотически, методом проб и ошибок, но целенаправленно[36]. Человека можно определить как существо, живущее в 2-х мирах – материальном (назовем его, по аналогии с известной схемой К.Поппера,[37] 1-м миром) и идеальном (2-м мире - т.е. мире мысли, или моделей),[38] и способное свободно переходить из одного мира в другой. Эта свобода есть важнейшее отличие человека от животных - животные тоже могут обрабатывать внешнюю информацию во 2-м мире (по заданным в виде рефлексов программам), но, в отличие от человека, не могут свободно (т.е. самостоятельно) разрывать поток взаимодействий, чтобы, оперируя со знаками во 2-м мире (мире мысли), создать новую модель реальности[39]. За счет мышления человек может делать предсказания о будущих изменениях окружающей среды (настолько точных, насколько точно модели, - т.е. мысли, - соответствуют реальности), т.е. получать информацию о будущем[40]. Таким образом, мышление – процесс информационный[41]
i.5. ВыводыВ этом приложении мы даем определение информации, и показываем, что из соответствия формул теории информации и термодинамики не следует, что все выводы термодинамики можно распространять на системы любой другой природы. Энтропия в соответствии со 2-м законом термодинамики является неубывающей функцией, что вводит в термодинамику понятие необратимого процесса, однако расширение термодинамического подхода за пределы собственно термодинамики – неправомерно. Системы, не подчиняющиеся термодинамическим ограничениям – отнюдь не исключение из правил: их достаточно много уже среди неживой природы. В еще большей степени это присуще живым системам – они преодолевают ограничения, налагаемые на простые замкнутые неодушевленные системы 2-м законом термодинамики, ввиду наличия у них идеальных моделей поведения. Если рассматривать экономическую систему как совокупность атомизированных индивидов, то, казалось бы, есть основания признать корректным аппроксимацию экономики термодинамической метафорой. У экономических «атомов» (т.е. – индивидов), однако, есть как минимум одно свойство, делающее такое отождествление в общем случае неправомерным – способность к мышлению. Поэтому информационное истолкование стоимости не является внутренне противоречивым (каковым оно было бы, если бы мы отождествляли информационный подход с энтропийным), - генерация экономическими системами новой информации (т.е. стоимости) не запрещена никакими общими принципами. Модель – объект, замещающий другой объект (оригинал) в каком-либо аспекте. Мышление - оперирование идеальными моделями; мышление - это информационный процесс. Моделирование реальности возможно потому, что мир не есть полный хаос. Человека можно определить как существо, живущее в 2-х мирах – материальном (назовем его 1-м миром) и идеальном (2-м мире - т.е. мире мысли, или моделей).
|
[1] Miller, J. G. Living Systems. McGraw-Hill Book Company. 1978. р. 21.
[2] Турчин В.Ф. Феномен науки. М.: ЭТС, 2000, с. 30.
[3] Мартин Н., Ингленд Дж. Математическая теория энтропии. М.: Мир, 1988.
[4] Шамбадаль П. Развитие и приложения понятия энтропии. М.: Наука, 1967.
[5] Бриллюзн Л. Наука и теория информации. М.: Физматгиз, 1960.
[6] Shannon C.E. A Mathematical Theory of Communication, Bell System Techn. J., 27, 1948.
[7] В общем случае можно вычислять информацию и для иерархической системы, вычисляя количество информации в элементах более низкого уровня, и затем задавая информационные веса отдельных блоков (отражающие сложность их строения) при вычислении количества информации на следующем уровне.
Подробное обсуждение этой проблемы применительно к экономическим системам см.: Вальтух К.К. Информационная теория стоимости и законы неравновесной экономики. Гл. 1 (С. 135, 136, и далее).
[8] Shannon C.E. A Mathematical Theory of Communication; Shannon C.E., Weaver W. The mathematical Theory of Communication. Univ. Of Illin. Press, Urbana, 1949.
[9] Эшби У.Р. Введение в кибернетику. М.: ИЛ, 1959.
[10] Шамбадаль П. Развитие и приложения понятия энтропии.
[11] См, например: Климонтович Ю.Л. Проблемы статистической теории открытых систем: критерии относительной степени упорядоченности состояний в процессе самоорганизации // Успехи физических наук. 1989, т.158, с.59-92; пример подобного подхода для данных экономических: Вильсон А.Дж. Энтропийные методы исследования сложных систем. М.: Наука, 1988.
[12] Особенно это касается представлений бельгийской школы И. Пригожина [Николис Г., Пригожин И. Самоорганизация в неравновесных системах. М.: Мир, 1979; Николис Г., Пригожин И. Познание сложного: Введение. М.: Мир, 1990, и др.]. В ее рамках развивается термодинамический подход к описанию самоорганизации: в открытых системах, обменивающихся с окружающей средой потоками вещества или энергии, однородное состояние равновесия может терять устойчивость и необратимо переходить в неоднородное стационарное состояние, устойчивое относительно малых возмущений. Эти стационарные состояния получили название диссипативных структур. Явления самоорганизации в системах любой природы в рамках данных представлений трактуются в термодинамических терминах, на основе понятия энтропии. При этом, отталкиваясь от второго начала термодинамики и связанной с ним проблемы соотношения обратимых и необратимых процессов в физике (из законов механики вытекает постоянство энтропии, второй закон термодинамики требует ее возрастания), представители бельгийской школы проводят грань между процессами организации (механическими) и самоорганизации (термодинамическими, где присутствует задаваемая ростом энтропии “стрела времени”).
[13] Здесь мы хотим обратить внимание на фрагмент работы Вальтуха К.К. «Информационная теория стоимости и законы неравновесной экономики», с. 69-70: «Не существует объектов, которые были бы исключены из действия второго закона термодинамики. Никакая система в природе, включая экономику, не может изменить законы хаотического движения материальных частиц. Более общее понятие о несуществовании закона сохранения информации должно формулироваться в пределах, вытекающих из второго закона термодинамики.» Полностью соглашаясь с большинством выводов обсуждаемого (по нашему мнению – выдающегося) труда, отметим, тем не менее, свое несогласие с данным фрагментом – ибо экономика не есть термодинамическая система, и нет оснований вводить при ее исследовании какие-либо ограничения термодинамического толка (подробному обоснованию нашей позиции и посвящены этот и следующий параграфы).
Отметим также, что и сам К.К.Вальтух в этом вопросе не вполне последователен, ибо далее пишет: «Физика знает отнюдь не только те процессы, с которыми имеет дело второй закон термодинамики.» (Там же, с. 72). И далее: «Для введения понятия увеличения информации в Универсуме, составляющего логически необходимую предпосылку информационной теории стоимости (выделение наше – Д.Е.), предпосылку ее включения в современную науку – достаточно сослаться на теорию Большого взрыва…» (там же, с. 73). Полностью соглашаясь с тем, что допущение увеличения информации в Универсуме действительно составляет логически необходимую предпосылку информационной теории стоимости, заметим, что а) это допущение противоречит приведенной выше цитате (Вальтух К.К. Цит. соч., с. 69-70); б) для принятия этого допущения нет необходимости обращаться к достаточно спорной (по нашему мнению) гипотезе «Большого взрыва», - можно обойтись и менее экзотическими способами (что мы и покажем в этом параграфе). В завершение этого комментария заметим, что неправомерное расширение поля применимости второго закона термодинамики (лежащее в основе указанного нами противоречия в тексте «Информационной теории стоимости…») – явление в современной научной литературе повсеместное, что и определяет важность обсуждаемых здесь вопросов.
[14] Как отмечает С.Хайтун, трудно сказать определенно, кто первый связал энтропию с беспорядком, но уже в 1883 году Г.Гельмгольц как о само собой разумеющемся говорит об энтропии как мере “дисорганизации” - Хайтун С.Д. Развитие естественнонаучных взглядов о соотношении закона возрастания энтропии и эволюции // Концепция самоорганизации в исторической ретроспективе. М.: Наука, 1994. С. 165.
[15] Мартынов Г.А. Неравновесная статистическая механика, уравнения переноса и второе начало термодинамики // Успехи физических наук, 1996, т. 166, № 10. С. 1121.
[16] Противоречивыми могут быть наши описания отдельных сторон природы, которые могут обладать противоположными, но никак не взаимоисключающими свойствами.
[17] Клаузиус ввел 2-е начало термодинамики аксиоматически – как исходный принцип; однако затем оно было обосновано в рамках статистической физики Максвеллом и Больцманом с опорой на теорию вероятности; для любой системы существует пусть и крайне малая, но не равная нулю вероятность его нарушения (тем более высокая, чем меньшее число элементов ее слагает).
[18] Примером здесь может послужить следующая ситуация: проводится лотерея среди всех жителей Земли с одним выигрышем. Вероятность выигрыша столь мала, что каждый конкретный человек принимает ее равной нулю. Таким образом, может возникнуть “противоречие” между утверждениями, что шансов выиграть у каждого конкретного человека нет, и тем, что кто-то обязательно должен выиграть.
[19] Eddington A. The Nature of the Physical World. Ann Arbor: Univ. of Michigan Press, 1958.
[20] Другой аспект вопроса о соотношении информации и энтропии – так называемая “проблема крупнозернистого усреднения”: Подставляя в формулу (i.2) концентрации молекул в единичных объемах, мы получим энтропию. Тем не менее, аналогом энтропии эта функция будет начиная с какого-то неэлементарного уровня измерения. На элементарном же уровне, когда единичная ячейка выбирается столь малой, что в нее входит максимум одна молекула, любое, сколь угодно асимметричное распределение молекул в объеме будет неразличимо от совершенно равномерного. В самом деле, в соответствии с (i.2), для системы из N молекул:
I1=I2= -N*(1/N*ln(1/ N)=ln N, т.к. в каждой из N ячеек находится по 1-й частице, а в остальных ничего нет. Таким образом, с точки зрения теории информации термодинамическая функция «энтропия» появляется на каком-то уровне описания, и на каком-то (когда мы будем брать очень крупные ячейки) исчезает. Эта демонстрирует отличие энтропии от таких физических понятий, как масса, расстояние и т.д., которые в отличие от энтропии физически реальны («Энтропия Клаузиуса не имеет реального существования: это не факт бытия, это математическое выражение, полезное и нужное, когда оно дает возможность выражать природные явления на математическом языке. Оно верно только в пределах посылок.»- Вернадский В.И. Очерки геохимии // Избранные сочинения. Т. 1. М.: Изд. АН СССР, 1954. С. 220).
[21] Генкин И.Л. Энтропия и эволюция Вселенной // Астрономия, методология, мировоззрение. М., 1979. С. 181-182.
[22] Хайтун С.Д. К вопросу о понятии энтропии. С. 182.
[23] Там же. С. 183.
[24] Пригожин И.Р., Стенгерс И. Время, хаос и квант: К решению парадокса времени. М.: Прогресс, 1999.
[25] Эта сопряженность тривиально следует из закона исключенного третьего: если мы все состояния системы дихотомически делим на “хаос” и “порядок” - интервалы порядка не могут быть разделены ничем, кроме хаоса.
[26] Знак ± означает, что хаос не обязательно разделяет два различных режима упорядоченности.
[27] Сачков Ю.В. Вероятностная революция в науке (Вероятность, случайность, независимость, иерархия). М., 1999. C. 77.
[28] Бир С. Кибернетика и управление производством. М., 1965. C. 277.
[29] Цит. по: Бир С. Там же. C. 279.
[30] Иоанн, 1:1.
[31] Бир С. Кибернетика и управление производством. C. 283.
[32] Там же. C. 285.
[33] Хайтун С.Д. К вопросу о понятии энтропии. С. 186.
[34] Хотя во многих частных случаях это вполне допустимо – к ним относятся все случаи, подпадающие под описание неоклассической модели общего рыночного равновесия.
[35] А в общем случае модель может быть физической и знаковой, материальной и идеальной. Большая часть мышления (хотя и не вся) есть оперирование знаковыми моделями (словами). Другие виды мышления – иконическое, и на основе образных представлений (о невербальных формах мысли см., например: Пенроуз Р. Новый ум короля. М., 2003. С. 342-343).
[36] Заметим, что моделирование реальности имеет смысл (дает преимущества) потому, что мир не есть полный хаос. Будь он таковым, не существовало бы аспектов, которые можно было бы поставить в соответствие какой бы то ни было общей модели. Иными словами, каждую конкретную ситуацию нужно было бы осмысливать заново, - и потому мышление не давало бы человеку каких-либо выгод по сравнению с животными. Выигрыш при моделировании окружающей среды возможен потому, что в основе реальности есть определенные закономерности.
Более того, интуитивно ясное понятие «порядок» возможно определить только через понятие модели (нам, во всяком случае, неизвестно сколь-нибудь внятного определения порядка на иных основаниях). Так, основатель аксиоматической теории вероятностей Колмогоров определил случайную последовательность (т.е. хаос): «Если дана последовательность натуральных чисел, то не может существовать правила, которое короче, чем сама предъявленная последовательность чисел» (цит. по: Кузнецов О.Л., Кузнецов П.Г., Большаков Б.Е. Система природа-общество-человек: устойчивое развитие. М.; Дубна, 2000. С. 144). И, наоборот, если существует короткое (относительно исходной последовательности) правило (т.е. – идеальная модель), согласно которому последовательность восстанавливаема, - эта последовательность упорядочена. Таким образом, получается, что упорядочение – это построение объекта (множества) на основе идеальной модели.
[37] Поппер К.Р. Объективное знание. Эволюционный подход. М., 2002.
[38] Здесь мы не рассматриваем вопрос о природе этого второго мира – для нас достаточно установления его наличия.
[39] Подробнее об этом см.: Егоров И.А. Принцип свободы как основание общей теории регуляции // Вопросы философии. № 3, 2000. С. 4-6.
[40] Приведем в качестве развернутого коментария высказанных положений цитату из работы К.Крылова «Новая ступень эволюции?» (интернет-сайт contr-tv.ru): «…в чем, собственно, состоит эта "иная и высшая" природа разума? Стандартные практические задачи, стоящие перед живым существом, инстинкты решают лучше, чем разум. Однако есть и оборотная сторона дела. Инстинкты "зашиты" в психику животного, оно с ними рождается. Обучение и воспитание только развивают их, но не могут ничего изменить принципиально. Разум, напротив, изменяет сам себя. Он не только решает практические задачи, но и ставит их. Эта способность ставить перед собой задачи - то есть заниматься проблемами вымышленными в самом прямом смысле этого слова, и есть то, что отличает разум от инстинкта… В чем же конкурентные преимущества разумного человека перед зверем с великолепными инстинктами? Почему способность воображать себе то, чего нет, - иными словами, жить в вымышленном мире - дает нам право называть себя "царями природы"? Дело в том, что существует один частный случай "вымышленного мира" - частный, но очень важный для практической жизни. Это будущее. Разум позволяет человеку решать некоторые проблемы раньше, чем они встанут перед нами на самом деле. Что и обеспечивает человеку эволюционное преимущество перед животными: он способен реагировать на то, чего нет, - и в том числе на то, чего еще нет.»
[41] И в силу своей по большей части знаковой природы (как оперирование знаками) может быть формально охарактеризовано информационными мерами.