Купить
 
 
Жанр: Философия

Системный синтез

страница №3

веренностью сказать: основные законы физики и любой другой
науки должны иметь экстремальную форму.
Если наука стихийно, методом проб и ошибок, идёт к какому-то идеалу, то,
очевидно, что можно сэкономить и силы и время, если, чётко уяснив себе идеал,
использовать для достижения цели опробованные методы и принципы. Особенно в
тех областях знания, где нет ещё строгой теории.
Открытие экстремальных принципов, породило в своё время надежду, что к
законам природы можно подойти более коротким путём. Но, несмотря на кажущуюся
простоту задачи, реализовать её в то время не удалось. Причина в том, что не
существовало никакого регулярного метода для отыскания экстремальной величины.
В механике и оптике было проще: соответствующие величины были для них
достаточно простыми и могли быть найдены подбором. С термодинамикой было уже
сложнее. Энтропия, как понятие, не обладает ни простотой, ни достаточно очевидным
физическим смыслом.
В своё время, после ряда неудач с применением экстремальных принципов,
попытки были отброшены. Более того, сами вариационные принципы были взяты под
сомнение позивистски настроенной наукой 19 века.
Огромное значение для практического применения экстремальных принципов,
было открытие новых свойств чисел ряда Фибоначчи, уже в нашем веке, позволившее
быстро отыскивать экстремум для функции y = f(x), с двумя промежутками
монотонности {а, х?} и {х?, в}, т. е., с одним экстремумом. Оказалось, что это
наилучший способ отыскания экстремума.
Дальнейшее развитие науки показало, что существует область явлений, где
именно непрямой подход, имеет наибольшие шансы на успех. Эта область –
поведение целенаправленных систем. К ним можно отнести живые организмы и их
сообщества (коллективы), колонии насекомых, социальные организации и т.д. В
подавляющем большинстве случаев, возникает ситуация, когда ясна конечная
причина, желаемый результат, а производящие причины, механизмы обеспечивающие
его достижение – многочисленны, сложны и, зачастую, глубоко скрыты.
Для изучения замкнутых целенаправленных систем, применение экстремальных
принципов, очевидно, будет весьма эффективно. Совершенствование и развитие
систем, до появления человека, и само появление живых разумных систем, это
результат реализации Программы, заложенной в системах всех уровней. Это
реализация Кода Вселенной.
Развиваясь, человечество начало создавать искусственные системы:
транспортные, информационные, коммуникационные, военные, космические,
производственные, компьютерные, государственные, социальные, развлекательные,
научные и т.д. и т. п. При достижении определённого уровня сложности и мощности,
в них начинают работать, действовать, те же закономерности, принципы, законы, что
и в системах созданных Природой, и заложенные Эволюцией.
Современная наука, углубляясь в изучение этих законов и закономерностей,
принципов и свойств, встречает всё больше трудностей. Прежние, привычные методы
и средства не срабатывают и, зачастую, неэффективны. Путь к глубокому изучению
эволюционных процессов лежит через совершенствование и доскональное овладение
экстремальными методами. Как бы тернист и трудоёмок ни был этот путь. Мы
приблизились вплотную, к такой степени усложнения, и научных инструментов
познания, и объектов изучения, что без универсальных экстремальных принципов,
просто, не обойтись.

1.2.1.2. ЭКСТРЕМАЛЬНЫЙ ПРИНЦИП И ЭНТРОПИЯ СИСТЕМЫ

Всё, что видим мы, - видимость только одна.
Далеко от поверхности мира до дна.
Полагай несущественным явное в мире,
Ибо тайная сущность вещей не видна
.
(Хайям)

Э
нтропию можно определить, как меру неопределённости, или как меру разнообразия
состояний системы. Если система, может находиться в одном из равновероятных
состояний, то энтропия H равна:

Н = log n

Пример. Число возможных различных комбинаций положений ферзя на
пустой шахматной доске равно 64 (n=64). Энтропия его возможных состояний
равна:

H = log 64 = 6 бит

Напомним, из элементарной математики: логарифмом числа N, по
основанию а (обозначается loga N) называется показатель степени, в которую
надо возвести число а, чтобы получить число N, т. е., в = logaN, если ав = N.
Далее рассматриваем основание а =2.
Бит – единица количества информации в двоичной системе счисления.

Соответствует информации, получаемой при осуществлении одного из двух
равновероятных состояний.
Далее. Если часть шахматной доски занята фигурами, то разнообразие его
(ферзя) возможных позиций и энтропия уменьшаются. Например, ферзь имеет
возможность ходить только по одной диагонали доски. Тогда, число его
возможных состояний n = 8, а энтропия:

H = log 8 = 3 бит

Если же, ферзю некуда ходить, т. е. число возможных состояний равно 1, то
энтропия уменьшается до нуля:

Н = log 1 = 0

Таким образом, можно заключить, что энтропия служит мерой свободы
системы: чем больше энтропия, тем больше состояний доступно системе, тем больше
у неё степеней свободы.

Рассмотрим случай, когда состояния имеют разные вероятности. В этом
случае, энтропия определяется сложнее – как средний логарифм вероятностей,
взятый с обратным знаком:

n
Н = - ? pi log pi
i=1

где, pi –вероятность i-го состояния, n - число состояний.
В частном случае, когда вероятности всех состояний одинаковы, они равны,
очевидно,

р = 1/n
Тогда:
n
H = ? 1/n log n = log n
i=1
Сформулируем важнейший принцип – максимума энтропии:
Энтропия максимальна, именно, при равномерном распределении
вероятностей. Всякое отклонение от равномерности приводит к уменьшению
энтропии.

Усложним пример. Рассмотрим движение молекулы в пространстве. Если
ферзя мы рассматривали в двухмерном пространстве, то молекула находится в
трехмерном. Но молекула движется, поэтому к её параметрам добавится ещё
три скорости (вернее три импульса - произведение массы на скорость). Таким
образом, состояние молекулы описывается 6 координатами. Они образуют
фазовое пространство.
На систему наложены ограничения: пространство ограничено стенами
сосуда цилиндр с поршнем, а скорости ограничены запасом энергии
молекулы.
Теперь энтропию можно определить как логарифм фазового объёма. Объём
может быть разбит на ячейки подобно шахматной доске соответствующие
различным состояниям. Тогда, энтропия опять-таки сведется к логарифму числа
состояний. Выбор размеров ячейки равносилен выбору начала отсчета для
энтропии, а начало отсчета - понятие условное. Квантовая механика предлагает
и абсолютное начало отсчета: согласно её законам объём фазовой ячейки не
может быть меньше некоторой предельной величины, определяемой постоянной
Планка.
Из определения энтропии, как логарифма фазового объёма становится
понятным, от чего зависит энтропия и как её можно изменить, например,
увеличить. Для этого нужно увеличить фазовый объём. Увеличить
пространственный объём просто: достаточно выдвинуть поршень. Чтобы
увеличить фазовый объём по скоростным координатам, нужно увеличить
скорость молекулы. Для этого достаточно передать молекуле дополнительную
тепловую энергию. В обоих случаях энтропия возрастает.
Всё определённое для одной молекулы верно и для идеального газа,
состоящего из N молекул. Энтропия такого газа будет в N раз больше энтропии
одной молекулы.

Использование экстремального принципа в данном случае позволяет находить
устойчивое равновесие для очень широкого класса систем: физических,
биологических, социальных и пр. Запишем этот принцип - принцип максимума
энтропии, в виде:
H (x) = ? p (x) log 1/p(x) = max (1)
i p (xi)
Варьируемыми переменными в данном случае являются вероятности различных
состояний p (xi).

Достигаемый максимум, как, правило, условен, т.к. в системе всегда есть
ограничивающие условия, препятствующие бесконечному росту энтропии.

Ограничения могут быть различными. Но наиболее типичными, важными и
универсальными являются ограничения на ресурсы, U (xi) .

U (x)=? p (xi) U (x) ? const
i
Это является характеристикой степени замкнутости системы. Роль ресурсов
играют: энергия, материя, пространство, время, количество операций.
С учётом ограничений, принцип максимума энтропии (для закрытых систем)
записывается:

Н(х) = bU(x) = max (2)
p(хi)

Здесь, b - так называемый множитель Лагранжа. Он играет роль масштабного
коэффициента, позволяющего приводить оба составляющих в выражении (2), к единой
размерности. Кроме того, он характеризует дефицит ресурсов, т. е. важность второго
составляющего в выражении. Например, если запас энергии в системе мал, то b будет
большим, а это значит, что второе составляющее будет доминировать в поведении –
система будет, главным образом, экономить энергию. Если же запас энергии велик,
то b будет малым, и в поведении системы будет преобладать стремление к экспансии,
к увеличению энтропии.

Живой системе, ничуть не меньше чем физической, свойственно стремление к
экспансии, к заполнению как можно большего объёма в пространстве. Помещённая в
какое-то определённое состояние, живая система, рано или поздно, покидает его и
начинает диффузировать в соседние области. Эта диффузия получила название
поисковой активности.
Биологи проводили эксперименты на крысах. Их помещали в комфортабельную
клетку, где были созданы все условия для спокойной жизни. Как же вели себя крысы?
Вот как описывает опыт В. Ротенберг и В.Аршавский:
В одной из стенок камеры была дверь, которая вела в необжитое и
неисследованное помещение, таившее в себе опасность самой неизведанностью. После
относительно короткого освоения комфортабельной камеры, крысы, одна за другой,
начинали предпринимать попытки проникнуть в это необследованное помещение. Это
было, отнюдь, не праздное, спокойное любопытство, крысы не производили
впечатления бесящихся с жиру. Они осторожно продвигались по тёмному коридору,
проявляя все признаки страха, – у них дыбилась шерсть, усиливалось мочеиспускание,
учащался пульс. Они эпизодически, в быстром темпе, возвращались назад и, тем не
менее, вновь и вновь пускались в своё рискованное и ничем непосредственно не
спровоцированное путешествие
.
Порою, вызывает удивление, как люди, без видимых на то причин, начинают
обострять противоречия в реальной жизни, портить отношения, идут на конфликты.
Психология объясняет каждый конкретный случай, особенностью характеров,
стечением обстоятельств и т. д. Но, причины, порой, заложены глубоко, самой
Природой. Гармония и согласие с окружением - это уже стагнация, застой. А системе,
для развития и эволюции нужна новая информация, новые среды обитания, новые
территории.
Такие примеры можно отыскать в действиях любой живой системы.
Причины, побуждающие отдельные народы и страны резко расширять свои
территории, увеличивать среду обитания, действуя агрессивно, до настоящего
времени, глубоко не изучены.
Дело, далеко не всегда, в рабах или золоте. Причины спрятаны значительно
глубже и заложены в Программе поведения системы. Благодаря чему, возникла
огромная Британская империя, в которой никогда не заходило Солнце? Из-за
жадности и алчности англичан? Каковы причины немецкой экспансии? Что заставило
горстку славян пройти и покорить огромные пространства за Уралом, на Дальнем
Востоке, Аляске? Что создавало огромные империи: Российскую, США, КНР, СССР?
Возникновение и распад империй – это возникновение и распад социальных систем,
до определённой степени замкнутых и определённых уровнем запретов. Всё это
требует отдельного исследования. Достигнув определённого уровня развития,
человечество будет в состоянии предвидеть и как-то влиять, на соответствующие
параметры, во избежание негативных сдвигов в человеческом сообществе.
Ещё довод в пользу принципа максимума энтропии. Лишите живое существо
свободы движения, свободы выбора и вы обречёте его на страдания. Экстремальный
принцип у живого существа выражен инстинктом свободы. Плен, рабство, тюрьма
ведут, если не к смерти, то к тяжёлым мучениям.

1.2.1.3. ЭКСТРЕМАЛЬНЫЙ ПРИНЦИП И ИНФОРМАЦИЯ

Не то что мните вы, природа:
Не слепок, не бездушный лик;
В ней есть душа, в ней есть свобода,
В ней есть любовь, в ней есть язык
.

( Ф. И. Тютчев)

П
ринцип оптимальности (экстремальности) информации – важнейший принцип
динамической теории функционирования систем.
Оптимальность информации означает, что информация должна передаваться и
обрабатываться за кратчайшее время, при наименьшем уровне помех, быть
наилучшим образом закодирована, и представлена в оптимальной, для восприятия,
форме.

Закрепим это математически. Основоположник теории информации Клод
Шеннон предложил формулу. Информация, которую содержит событие
(предмет, состояние) y о событии (предмете, состоянии) х, равна:

I(x,у) = log p(x/y)/p(x) (3)

где, p(x) – вероятность события x до наступления события y (безусловная
вероятность); p(x/y) - вероятность события x при условии наступления события
y (условная вероятность).
Под событиями х и у, будем понимать стимул и реакцию, вход и выход,
значения двух различных переменных, характеризующих состояние системы.
Пример. Сообщение у о событии х является абсолютно точным. Тогда,
условная вероятность р (х/у) = 1 и:
I(x/y)=log 1/[р(х)]
Допустим, поступила информация, что ферзь на доске стоит на поле а4.
Если, до поступления этой информации, вероятности пребывания ферзя во всех
позициях были одинаковы и равны р(х) = 1/64, то полученная информация
равна:
I(x,y) = log 1/р(х) = log 64 = 6 бит
т.е., информация в этом случае равна энтропии системы Н(х). Информация,
как и энтропия измеряется в битах, двоичных единицах.
Теперь, допустим, что сообщение было не совсем точным. Например, ферзь
стоит, то ли на а3, то ли на а4. Условная вероятность его пребывания в позиции
а4, теперь, равна не 1, а р(х/у) =1/2. Полученная информация будет равна:
I(х/y) = log{[р(х/у)]/р(х)} = log (1/2:1/64) = log 32 = 5 бит
т.е. она уменьшилась на 1 бит. Таким образом, чем точнее выражение, тем
больше информации.
В дальнейшем, переменную (признак, параметр, множество событий и т. д.),
будем обозначать заглавной Х. А конкретное значение переменной - строчной х,
несколько значений - х1,…, хп. Двоичные переменные имеют 2 градации - х0, х1.
Определим понятие о средней взаимной информации между 2 множествами
событий, двумя переменными Х и У:
I(X,Y)=?p(x,y) log p(x/y) =?p(x,y)log p(x/y) - ?p(x,y)log p(x)=H(Х) - H(X/Y)
(4)
x,y p(x) x,y x,y
где: Н(х) - безусловная энтропия, а Н(Х/У) - условная энтропия.
Академик А.Н.Колмогоров показал, что р(х) не обязательно вероятность.
Это может быть просто относительная доля, концентрация, частность, с
которыми нам встречается значение Х среди других значений.

Проиллюстрируем графически энтропию системы и информацию

Верхние раздельные овалы – при отсутствии связи между переменными Х и У;
Нижние совмещённые овалы – при наличии статистической связи между Х и У.
Рассмотрим 2 переменные Х и У, характеризующие систему. Энтропию
переменной Х изобразим овалом с площадью Н(Х): чем больше энтропия, тем больше
площадь. Энтропия второй переменной – второй овал с площадью Н(У). Если
переменные статистически независимы, т.е. связь между ними отсутствует, овалы не
пересекаются. Полная энтропия системы равна сумме энтропий, т. е. сумме площадей.
Если же между переменными возникает статистическая связь (корреляция), то
овалы на схеме пересекаются. Возникшая взаимная информация I(Х/У) и есть
количественная мера этого пересечения. Энтропия уменьшается на величину этой
информации:
Н(Х,У) = Н(Х) + Н(У) – I(Х,У) (5)
Чем больше взаимная информация, тем теснее связь, тем меньше энтропия
Н(Х,У).
Более 50 лет назад была издана книга знаменитого австрийского физика Эрвина
Шредингера Что такое жизнь? С точки зрения физика. Она вышла задолго до
открытия новых фундаментальных понятий в теории информации, кибернетике,
биологии и бионике, системологии, до возникновения новых наук и научных
направлений, затрагивающих эволюцию систем. В своей книге, Шредингер поднимает
вопросы упорядоченности и неупорядоченности систем, энтропии, равновесия
живых систем.
Определяя роль энтропии и устойчивости живых систем, он пытается дать
ответ на вопрос – каким образом, организм, как система, противостоит росту
энтропии. Вот что он пишет:
Именно потому, что организм избегает быстрого перехода в инертное
состояние равновесия, он и кажется загадочным. Настолько загадочным, что с
древнейших времён, человеческая мысль допускала действие в организме особой,
какой-то не физической, а сверхъестественной силы (vis viva – энтелехии).

Как же живой организм избегает перехода к равновесию? Ответ достаточно
прост: благодаря тому, что он питается, дышит и (в случае растений) ассимилирует.
Для всего этого есть специальный термин – метаболизм. (Обмен, по греч.). Обмен
чего? Первоначально, без сомнения, подразумевался обмен веществ… Но,
представляется нелепостью, чтобы главным был, именно обмен, веществ. Любой атом
азота, кислорода, серы и т. п., так же хорош, как любой другой атом этого же
элемента. Что же достигается их обменом? Одно время наше любопытство
удовлетворялось утверждением, что мы питаемся энергией… Нечего и говорить, что
это нелепость, ибо во взрослом организме содержание энергии так же постоянно, как
и содержание материи. Каждая калория имеет, конечно, ту же ценность, что и любая
другая, поэтому нельзя понять чему может помочь простой обмен этих калорий.
Что же тогда составляет то драгоценное Нечто, содержащееся в нашей пище,
что предохраняет нас от смерти? На это легко ответить. Каждый процесс, явление,
событие (назовите его, как хотите), короче говоря, все, что происходит в Природе,
означает увеличение энтропии в этой части Вселенной, где это имеет место. Так и
живой организм непрерывно увеличивает свою энтропию, или, иначе, производит
положительную энтропию и, таким образом, приближается к опасному состоянию
максимальной энтропии, представляющему собой смерть. Он может избежать этого
состояния, т. е. оставаться живым, только постоянно извлекая из окружающей среды
отрицательную энтропию, которая представляет собой нечто весьма положительное,
как мы сейчас увидим. Отрицательная энтропия – это то, чем организм питается. Или,
чтобы выразить это менее парадоксально, существенно в метаболизме то, что
организму удаётся освобождаться от всей той энтропии, которую он вынужден
производить, пока жив …
Изолированная система, или система в однородных условиях… увеличивает
свою энтропию и, более или менее быстро, приближается к инертному состоянию
максимальной энтропии. Мы узнаём теперь в этом основном законе физики
естественное стремление материи приближаться к хаотическому состоянию, если мы
не препятствуем этому.

Далее, проницательный учёный даёт формулу, описывающую связь
энтропии со статистической концепцией упорядоченности и неупорядоченности,
являющейся количественной связью:

Энтропия = k lg Д

Где k – постоянная Больцмана, равная 3,2983 х 10-24 калорий на
градус Цельсия;
Д – количественная мера неупорядоченности атомов в
рассматриваемом теле.
Если Д – мера неупорядоченности, то обратную величину – 1/Д можно
рассматривать как меру упорядоченности. Поскольку логарифм 1/Д есть то же, что и
отрицательный логарифм Д, мы можем написать уравнение Больцмана таким образом:

- (Энтропия) = k lg 1/Д

Далее Шредингер пишет:
Теперь неуклюжее выражение, отрицательная энтропия, можно
заменить более изящным: энтропия взятая с отрицательным знаком, есть сама по себе
мера упорядоченности
.

Гениальный физик, конечно же, был прав. Он подошёл вплотную к разрешению
вечного вопроса философии, – что движет миром?
Думается, учёный понял больше, чем написал. Ведь выражение энтропия,
взятая с отрицательным знаком
ничуть не изящнее выражения отрицательная
энтропия
, скорее наоборот! Но он, по каким-то своим соображениям, не пошёл
дальше. По крайней мере, не написал.
Сегодня мы можем сказать с полной определённостью: отрицательная энтропия,
это ни что иное, как ИНФОРМАЦИЯ!!!
Шредингер размышляет:
Таким образом, средство, при помощи которого, организм поддерживает себя
на достаточно высоком уровне упорядоченности (равно – на достаточно низком
уровне энтропии), в действительности, состоит в непрерывном извлечении
упорядоченности из окружающей его среды. Это заключение менее парадоксально,
чем кажется на первый взгляд. Скорее оно тривиально. В самом деле, у высших
животных мы достаточно хорошо знаем тот вид упорядоченности, которым они
питаются, а именно: крайне хорошо упорядоченное состояние материи, в более или
менее сложных органических соединениях, служит им пищей. После использования,
животные возвращают эти вещества, в очень деградированной форме, однако не
вполне деградированной, так как их ещё могут употреблять растения. (Для растений
мощным источником отрицательной энтропии является, конечно, солнечный
свет)
.
Здесь учёный или несколько заблуждается, или намеренно уводит в сторону. Он
выдвигает версию, что живая система, например животное, получает отрицательную
энтропию
или информацию из пищи, которую потребляет. Это предположение не
лучше, чем то, что один атом химического элемента, или одна калория, заменяется
другой, потому что чем-то лучше. Животное получает растительную или животную
пищу, или ту и другую (как человек), в различном структурном виде, преобразуется
различными ферментами организма, по разному усваивается. Не может служить
источником информации и набор аминокислот, жиров, белков, углеводов, витаминов
и т. д. У них стабильное химическое строение. Ничего нового организм почерпнуть не
может. А динамической живой системе необходима постоянно новая информация.

Получение, повторно, одной и той же информации, для системы, в принципе,
бесполезно.
Второе начало термодинамики чётко определяет: изолированная физическая
система целеустремлённо и необратимо стремится к равновесию, хаосу, из-за
огромного количества равновероятных состояний, в которых может находиться
система. Бороться с энтропией может только открытая динамическая система.
Получая извне энергию (материю) система имеет возможность
структурироваться, развиваться, усложняться. Но, главное для неё: получение
информации, извне, для целенаправленного управления внутренними процессами, для
ориентировки, при выборе оптимального варианта, из огромного количества
предлагаемых Природой, того, который отвечает Программе эволюции, заложенному
ею Коду.
Таким образом, в биологических системах постоянно происходит уменьшение
энтропии, поддерживается гомеостаз, выбирается направление совершенствования,
накапливается информация и реализуется Программа. Настаивать в такой ситуации на
случайности и стохастичности процессов, по крайней мере, недальновидно.
Информация, как важнейший параметр взаимодействия систем, обладает
уникальными свойствами, принципиально отличающими её от других величин.
Во-первых, если материя или энергия передаётся от одного объекта к другому,
то действуют законы сохранения. Чем больше передалось, тем меньше осталось. А
информация обладает свойством дублирования. При этом оригинал и копия
равноценны.
Во-вторых, повторная передача уже переданной информации, не является
информацией и может быть необходимой лишь для усиления надёжности каналов
передачи, для увеличения помехоустойчивости.
Системы, находящиеся в составе эволюционной цепочки взаимосвязаны, между
ними существует постоянная статистическая связь. Постоянно возникает взаимная
информация, обеспеченная обратной связью. Эта информация обеспечивает
уменьшение энтропии.

1.2.2. Закон информационного противостояния

Ни военный гений Александра Македонского, ни суровая воля
египетского фараона Хеопса, не могут ни на одно мгновение
приостановить действие великих законов природы
.
(Д. И. Писарев)

Б
ыло бы вернее, назвать этот закон энергоинформационным, хотя энергия играет здесь
лишь вспомогательную, исполнительную роль.

Основываясь на выводах и уравнениях Больцмана-Шредингера, можно записать
уравнение:
I = k log(1/Н)


где: I – взаимная информация системы;
k – постоянная Больцмана;
Н – энтропия системы

Закон можно сформулировать следующим образом:
Изолированная (замкнутая) открытая динамическая система
противостоит росту энтропии (второе начало термодинамики) и
эволюционирует благодаря накоплению, переработке и реализации
взаимной информации, в соответствии с заложенной Программой
эволюции.
Этот закон сформулирован для живых систем и систем более высоких порядков,
с учётом телеологичности заложенных Природой в них программ.
Гениальный Л.Больцман писал:
… всеобщая борьба за существование живых существ не является борьбой за
составные элементы всех организмов – составные элементы всех организмов, имеются
налицо в избытке в воздухе, воде и недрах Земли – и не за энергию, ибо такая
содержитс

Список страниц

Закладка в соц.сетях

Купить

☏ Заказ рекламы: +380504468872

© Ассоциация электронных библиотек Украины

☝ Все материалы сайта (включая статьи, изображения, рекламные объявления и пр.) предназначены только для предварительного ознакомления. Все права на публикации, представленные на сайте принадлежат их законным владельцам. Просим Вас не сохранять копии информации.