Жанр: Электронное издание
125_44
ПО КИБЕРНЕТИКЕ И ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ
В-А. Герович
Возникнув в ряде эпизодических публикаций конца 40 - первой
половины 50-х годов, проблема самоорганизации вскоре стала одной из
наиболее актуальных тем кибернетических исследований. В программной
статье 1958 г. для первого номера нового бельгийского журнала "Кибер
нетика" Н. Винер писал о самоорганизации как точке сосредоточения
своих текущих интересов [см. (6, с. 18)]. В США были организованы две
крупные международные конференции по самоорганизующимся систе
мам в 1959 [см. (19)] и 1962 1см. (46)] годах и международный симпозиум в
1961 г. [см. (15)], число участников которых достигало 400 человек. Затем
волна интереса к идеям самоорганизации переместилась в СССР, где эта
проблема обсуждалась на симпозиуме по бионике в Баку в 1964 г.,
конференции в Москве в 1965 г., секции "Бионические принципы само
организации" 111 Всесоюзного симпозиума по кибернетике (Тбилиси,
1967 г.) (см. (1)]. В конце 60-х годов, когда сложность реальных систем
поставила границу кибернетическому подходу, бум пошел на убыль. В то
же время о самоорганизации заговорили физики и химики, изучающие
нелинейные неравновесные системы в русле нового научного направления
- синергетики. В начале 80-х годов в области искусственного интеллекта
(НИ) появляются работы, также увязанные с тематикой самоорганизации.
Столь обширное распространение проблематики самоорганизации по
временным и дисциплинарным координатам вызывает очевидный вопрос:
как соотносится само понимание проблемы самоорганизации в различных
областях исследования, как оно развивалось в исторической динамике?
Что объединяет дисциплины со столь разными предметами исследования,
что заставляет их использовать единую терминологию? Не вкладываются
ли в одни и те же слова совершенно разные значения?
Кибернетические представления о самоорганизации уже не раз
становились предметом специального рассмотрения (см. (27, 28)]. В этих
работах, однако, логический анализ явно доминировал над историческим.
В то же время пестрое разнообразие кибернетических воззрений на само
организацию постоянно нарушало логическую стройность априорных клас
сификаций. В результате единая "абстрактная схема самоорганизующейся
системы" Б .Г. Година объединяет принципиально различные трактовки
самоорганизации, а у У.Р. Эшби, наоборот, одна и та же реальная самоорг
анизующаяся система может попасть в два разнмх класса одновременно.
Нас будут интересовать реально бытовавшие, а не просто логически
возможные кибернетические представления о самоорганизации. Мы
рассмотрим их синхроническое разнообразие и диахроническую динамику,
соотнесем с исследованиями в области НИ, которые практически не
освещались в обзорной литературе по самоорганизации. Также не был
изучен вопрос о связи кибернетики с синергетикой. Отсутствие прямых
ссылок синергетиков на их кибернетических предшественников породило
впечатление, что трактовки проблемы самоорганизации в этих дисципли
нах совершенно различны.
На наш взгляд, несмотря на несходство предметов исследования, уче
ные из разных областей нередко проявляли общность подхода к проблеме
самоорганизации на уровне качественного понимания механизма осущест
вления этого процесса. Можно выделить два таких механизма, условно
называемых "кибернетическим" и "синергическим".
В классической кибернетике была разработана модель кибернетичес
кого механизма самоорганизации, предусматривающая упорядочение
структуры системы в тесной связи с улучшением ее поведениД за счет
обратной связи с окружающей средой. Подобные системы с точки зрения
внутренних связей представлялись самосвязующимися, а по отношению к
среде-самообучающимися.
Другая ветвь кибернетических исследований, которую мы будем
называть "неклассической", вовлекла в орбиту внимания естественные и
искусственные системы, в которых самоупорядочение структуры проис
ходило спонтанно, вне целей, связанных с обучением.
В области НИ был разработан эволюционный механизм самообучения,
обладавший спонтанным (случайным) характером. Позднее на его базе
был создан синергический механизм самоорганизации, основанный на
самообращенных связях между отдельными активными элементами
системы. Этот механизм имеет многие общие черты с неклассическим
кибернетическим подходом и современными исследованиями в синерге
тике, также обнаруживающими источник самоорганизации в самообращенности
внутренних связей системы.
Два понятия самоорганизации различаются прежде всего по их отно
шению к целенаправленности поведения системы. Кибернетический меха
низм подразумевает наличие заранее определенной цели, к которой сис
тема стремится самостоятельно (и в силу этого является самоорганизующейся).
Синергический механизм не требует цели, "самоорганизованность"
системы проявляется в спонтанности возникновения некоторой ор
ганизации, никак не заданной извне.
При всем разнообразии задач, стоящих перед исследователями в
разных областях, общее понимание механизма самоорганизации позволяло
им черпать друг у друга полезные аналогии и обусловило высокую
научную плодотворность этой идеи.
Истоки и особенности
кибернетических исследований самоорганизации
Один из организаторов конференции по самоорганизующимся системам
1962 г. М.К. Повито писал, что термин "самоорганизующаяся система"
впервые использовали Б. Фэрли и У. Кларк в статье 1954 г.
(см. (32)] в значении "система, изменяющая свои основные структуры в
зависимости от опыта и окружения" [46, с. 1Х1. Нетрудно убедиться,
однако, что еще в 1947 г. английский кибернетик У.Р. Эшби опубликовал
написанную годом раньше статью "Принципы самоорганизующейся
динамической системы" (см. (29)], где ввел это понятие иначе. Но мнение
Иовитса не было просто ошибочным. Оно отражало разную судьбу этих
статей: одна была принята и подхвачена кибернетическим научным
сообществом, другая прошла незамеченной, и даже ее автор позднее
изменил свою точку зрения.
Тем не менее мы начнем именно с этой ранней работы Эшби, ибо нас
интересует скорее постановка проблемы самоорганизации, чем ее
окончательное решение (которое, по-видимому, не найдено до сих пор). В
начале статьи автор констатирует скептическое отношение своих коллег
к идее о том, что "машина может быть "самоорганизующейся", т.е.
детерминированной и тем не менее производящей спонтанные изменения
внутреннего состояния" [Там же, с. 125]. Далее он вводит определения
"машина" (эквивалент "абсолютная система", описываемая системой
обыкновенных дифференциальных уравнений, правая часть которых не
зависит от времени), "организация" (определяется формой правой части
уравнений) и "самоорганизация" (спонтанный переход от одной органи
зации к другой). Элементарные математические выкладки позволяют
Эшби сделать вывод, что в случае, когда одна из переменных является
ступенчатой функцией, ее можно исключить из уравнений, переопределив
функции в правой части. Тогда изменения значения этой переменной
будут приводить к скачкам в организации, которые будут выглядеть
спонтанными. Тем самым, считал Эшби, "разрешается противоречие
относительно нервной системы. Требование, согласно которому она
должна быть строго детерминированной механистической системой, будет
удовлетворено, если мы включим в нашу "систему" все переменные,
относящиеся к нервной системе, что будет соответствовать системе в
переменных. Другое требование, согласно которому нервная система
представляется спонтанно меняющей свою организацию... будет справед
ливо для п-ш переменных, относясь, таким образом, к наблюдаемому
извне поведению при игнорировании событий или переменных внутри
нервной системы" (Там же, с. 128].
Для Эшби "образца 1946 г." самоорганизация эквивалентна спонтан
ному изменению организации, при этом направление изменения не играет
роли. Механизм самоорганизации прост - выявление своеобразных
"скрытых" переменных открывает строгий детерминизм действия
системы. Естественным прототипом самоорганизующейся системы явля
ется нервная система, и данная схема есть ее абстрактная модель.
Методологический вывод, который можно сделать из этой статьи Эшби:
самоорганизация - субъективная характеристика. В зависимости от числа
переменных, включаемых наблюдателем в описание системы, она или
является самоорганизующейся, или нет.
Эту методологическую установку Эшби сохранил и в дальшейшем,
хотя в целом его воззрения на проблему самоорганизации заметно
изменились. В докладе на симпозиуме 1961 г. он отмечал, что "сущест
венная часть теории организации касается свойств, которые не являются
внутренне присущими реальным объектам, а зависят от отношения между
наблюдателями и объектами" [27, с. 317].
Рассматривая далее различные возможные определения само
организации, Эшби приходит к выводу, что прилагательное "самоорганизующ
аяся", "применяемое слишком свободно, является неопределен
ным, а если его применять слишком точно - противоречивым" (Там же,
с. 327]. С одной стороны, "ни об одной системе нельзя строго утверждать,
что она является самоорганизующейся" [Там же, с. 331], с другой -
"каждая машина может считаться "самоорганизующейся", так как она
разовьет... некоторые функциональные структуры, гомологичные "прис
пособленному организму"" (Там же, с. 336]. Неудивительно, что Эшби
заключает: "так как выражение "самоорганизующаяся" ведет к
укоренению весьма путаного и противоречивого представления о данной
проблеме, это выражение, вероятно, вообще не следовало бы употреб
лять" (Там же, с. 331].
Не теряя времени в ожидании, пока все последуют этому замеча
тельному совету, Эшби решил хотя бы упорядочить текущее исполь
зование этого "выражения". Он выделил два различных значения термина
"самоорганизующаяся система".
Во-первых, самоорганизацией может состоять в переходе "от системы с
независимыми частями к системе с зависящими друг от друга частями"
(Там же, с. 328], при этом не учитывается, хороша или плоха воз
никающая организация. Пример - "нервная система эмбриона, чьи клетки
вначале почти не воздействуют друг на друга, а затем соединяются в
систему" (Там же]. Системы такого рода Эшби предложил называть
"самосвязующимися".
Во-вторых, самоорганизацией можно считать переход от плохой
организации к хорошей, когда, например, ребенок, вначале потянувшись к
огню, затем уже избегает его (см. (27, с. 328-329)]. Правда, оговари
вается Эшби, "не существует "хорошей организации" в абсолютном
смысле. Она всегда относительна: и организация, хорошая в одном смысле
или при одном критерии, может быть плохой в другом смысле или при
другом критерии... Любопытство - вещь хорошая, но много антилоп
погибло, остановившись поглядеть на шляпу охотника" (Там же, с. 324325].
Эшби также ссылается на опыты К. Прибрама, обнаружившего, что
обезьяны с оперированным мозгом набирали в некоторых текстах больше
очков, чем нормальные (оперированные были терпеливы и усидчивы,
тогда как нормальные проявляли беспокойство и все время отвлекались).
Сходную дихотомию ввел английский кибернетик Д. Маккей. Когда мы
говорим о высоком уровне организации кристалла, имеется в виду, что
форма его структуры - положение его атомов - демонстрирует высокую
согласованность с некоторой формулой. Когда же мы говорим об
организованности телефонной сети или человеческой нервной системы, мы
ссылаемся не на форму, а на функцию системы (см. (41, р. 37)].
Для того чтобы и нам несколько упорядочить терминологию, обратимся
к основам кибернетической традиции. Основной тезис классической кибер
нетики состоял в том, что управление как в машинах, так и в живых орга-'
низмах осуществляется единым образом - по принципу обратной связи.
Обратная связь предусматривает наличие у системы определенной цели и
регулярную сверку промежуточных, текущих состояний (выходов) систе128
мы с этой целью для корректировки поведения. В технике этот принцип
известен давно, кибернетика же предложила такой способ описания и для
поведения живых организмов. Стали создаваться различные механизмы,
моделирующие те или иные аспекты поведения человека или животных.
Системы, цель которых связывалась с адаптацией к окружающей среде,
стали называть "адаптивными". Для создания искусственной адаптивной
системы существовало два способа: сконструировать систему сразу в окон
чательном виде или построить начальный вариант, снабдив его возмож
ностями развития адаптивных свойств. В последнем случае систему
называли "обучающейся". Обучение происходило либо с внешним "учи
телем", либо самостоятельно, за счет обратной связи ("самообучение").
В соответствии с кибернетическим принципом "черного ящика" все эти
характеристики относились исключительно к поведению (внешним про
явлениям) системы. Улучшение поведения (достижение адаптивности)
понималось в кибернетике как переход от плохой организации системы к
хорошей, и этот процесс стали называть "самоорганизачией".
Один из возможных критериев адаптации - устойчивость системы отно
сительно некоторого состояния равновесия. Этот принцип был положен
Эшби в основу специального устройства - гомеостата 1см. (26)], идея
которого возникла в 1948 г. Понятие гомеостазиса, введенное амери
канским физиологом У.Кенноном [см. (30)] и описывающее работу
вегетативной нервной системы как удержание значений некоторых
существенных переменных внутри физиологически допустимых границ,
Эшби распространил на высшую нервную деятельность. Он предположил,
что гомеостазис является основным механизмом работы мозга; его
моделью на техническом уровне и был призван стать гомеостат.
Гомеостат как раз осуществляет самоорганизацию второго типа по
классификации Эшби. К этой группе относится любая самообучающаяся
машина. Дж. Хоукинс в своей обзорной статье [см. (23)) использовал
понятия "обучение" и "самоорганизация" как синонимы.
С другой стороны, параллельно с кибернетическими идеями в 4&-50-e
годы разрабатывалась нейрофизиологическая модель мозга в виде спе
циально организованной нейронной сети. В динамике эта модель пред
ставляла собой процесс перехода сети из неупорядоченного состояния в
упорядоченное, "связанное" состояние. Модели такого рода тоже стали
называть "самоорганизующимися системами". Это и были те "самосвязующиеся"
системы, которые Эшби в своей классификации- отнес к
первому типу.
Особенность кибернетического подхода, как мы уже отмечали, заклю
чалась в том, что исследовались лишь системы, для которых определено
понятие цели, необходимое для построения любой кибернетической
модели. Д. Маккей, помимо различения кибернетических самоорганизующихся
систем по критерию формы или функции, ввел еще разделение
на системы с целью, задаваемой извне (искусственные системы, например,
самооптимизирующийся контролер процесса), и системы, где цель
вырабатывается независимо (живые организмы). Между ними, отмечал
Маккей, пролегает континуум, где находится большинство человеческих и
искусственных ситуаций [см. (41, р. 38)].
9. Концепция самоорганизации... 129
Сошлемся на перечень, данный В.В. Чавчаниязе: "К естественным
самоорганизующимся системам и явлениям можно отнести: клетки и их
ассоциации; нервные клетки; единство нервных и сенсорных клеток;
нейронные системы; мозг; мозг в единстве с организмом; мозг и язык
(вместе с социальным носителем); поведение животных в течение
жизненного цикла; поведение ассоциаций животных; поведение челове
ка и человеческих групп; поведение ассоциаций в заданных средах:
поведение социальных групп и систем; экономические системы; большие
системы; науку; научные знания; язык науки; социальные и экономические
отношения племен, народов, наций, организаций, классов, государств;
поведение человека, человеческих групп и человечества в целом в данной
природной, социальной среде и т.д." [25, с. 32]. Кибернетика не исследо
вала процессы самоорганизации в неживой природе, ставшие предметом
синергетики, где телеологические модели исключены.
Другая особенность кибернетического подхода к проблеме самоорга
низации была связана с двойственностью любого кибернетического
исследования. Кибернетическая система, будучи моделью живого орга
низма, могла рассматриваться и как исследовательская модель для
биолога, изучающего организм, и как машина, построенная инженером по
бионическому принципу. Одна часть кибернетического научного сооб
щества преследовала одну цель, другая - иную, но сами по себе иссле
дования допускали двоякую интерпретацию. М.К. Повито подчеркивает
различие целей: "Физиологи, эмбриологи, нейрофизиологи и представители
других биологических наук стараются понять свойства самоорганизации
биологических систем, математики же, инженеры и физики со своей
стороны пытаются сконструировать искусственные системы, которые
обнаруживали бы самоорганизующиеся свойства" [8, с. 12]. А Ст. Бир
предлагает рассуждать "так, как если бы не существовало разницы меАду
любыми реализациями мозга - в действительности, в математической
модели, в кибернетических машинах и т.д. И действительно, это не имеет
значения. Наша цель - получить отображение мозга на машину, и,
поскольку это сделано, они фактически совпадают" [2, с. 56-57]. Бир
строит общую теорию - живого мозга и его искусственных подобий.
Для нас важно отметить, что независимо от того, кем ощущает себя
кибернетик - биологом, инженером или создателем общей теории - его
исследование, его знание может войти в любой из этих разделов как его
составная часть.
Неудивительно поэтому, что кибернетики, занимающиеся конструиро
ванием искусственных самоорганизующихся систем, опирались на модели
функционирования человеческой нервной системы, предложенные биоло
гами Н. Рашевским jcm. (43)] и Д. Хеббом [см. (35)], и прежде все
го - на совместные исследования двух американских ученых - нейрофизиолог
а У. Маккалока и математика У. Питтса. В классической статье
1943 г. "Логическое исчисление идей, относящихся к нервной активности"
(см. (10)] они ввели формальную модель нервной клетки. Нейрон
представлялся им логическим элементом с несколькими возбуждающими и
тормозящими входами (аналогами синапсов) и одним выходом. Возбуж
дение выхода зависело от превышения входными возбуждениями некото130
роге порога и от наличия торможений. При этом авторы приняли следу
ющие "физические допущения":
"I. Активность нейрона удовлетворяет принципу "все или ничего".
2. Возбуждению нейрона в какой-либо момент времени должен пред
шествовать латентный период накопления возбуждений определенного
фиксированного числа синапсов. Это число не зависит от предыдущей
активности и от расположения синапсов на нейроне.
3. Единственным запаздыванием в нервной системе, имеющим значе
ние, является синаптическая задержка.
4. Активность какого-либо тормозящего синапса абсолютно исключает
возбуждение данного нейрона в рассматриваемый момент времени.
5. С течением времени структура сети не изменяется" [Там же, с. 366].
Нейроны соединялись в сети, описываемые на языке логики Карпам с
дополнительными обозначениями Рассела и Уайтхеда (именно у Рассела и
Карнапа учился логике У. Лягте). Далее показывалось, что "для всякого
логического выражения, удовлетворяющего некоторым условиям, можно
найти сеть, имеющую описываемое этим выражением поведение" (Там
же, с. 362]. Класс функций, реализуемых такой сетью, занимал проме
жуточное положение между простой булевой логикой и широким классом
функций, вычислимых машиной Тьюринга. Заметим, что модель Макк
алока-Питтса представляла собой фиксированную структуру для фикси
рованного (наперед заданного) поведения.
Модель породила, с одной стороны, неоправданный оптимизм инжене
ров, будто сеть формальных нейронов может реализовать "все, что может
быть полностью описано", а с другой - резкую критику нейрофизиологов,
установивших в 50-е годы, что нейрон имеет существенно более сложную
структуру. Ограниченность своей схемы хорошо понимал и сам Маккалок,
сказавший однажды: "Не хватайте меня за палец, а смотрите, куда я
указываю" [цит. по (39, р. 76)]. А указывал он на возможность уста
новления связи феноменологического и нейрофизиологического уровней
описания работы нервной системы. Именно так восприняли эту модель
кибернетики. Критикуя эту схему и отталкиваясь от нее с разных сторон,
инженеры и биологи развивали методы описания и конструирования
самоорганизующихся систем.
Развитие классического кибернетического подхода
Первым принципиальным пунктом критики схемы Маккалока-Питтса
был ее строго детерминированный характер. Помеха в работе одного
нейрона нарушала функционирование всей сети. Кроме того, громадное
количество нейронов головного мозга (порядка 10 млрд) делало прак
тически невозможным построение формальной модели целого мозга на
этих принципах. По выражению Ф. Розенблатта на симпозиуме 1961 г.,
такая модель была бы "переопределена". Он заявил: "Мне кажется, что
требовать точной логической структуры нервной сети для предсказания ее
поведения равносильно тому, чтобы требовать знания точного положения
и скорости каждой молекулы находящегося в сосуде газа для предсказания
его температуры" [17, с. 471]. Сам Маккалок, присутствовавший на сим
позиуме, при обсуждении сходной ситуации указал, что это было бы
похоже на поиски, в какой из ламп радиоприемника находится голос певца.
К тому времени Маккалок уже использовал вероятностный подход к
нейронным сетям.
При определенной температуре газа его частицы могут иметь самые
различные положения и скорости. Аналогично, множество разных логи
ческих уравнений может описывать нейронные сети, демонстрирующие
одинаковые статистические характеристики. Поэтому именно статис
тические правила Розенблатт считал наиболее подходящими для описания
важнейших аспектов работы мозга или подобной ему системы [см. (16,
с. 71)]. Впервые статистический принцип был применен в 1948 г. А. Шимбелом
и А. Рапопортом для анализа сетей с вероятностным распре
делением порогов, типов синапсов и источников связей (см. (47)].
Статистический подход был применен в модели "случайной сети", в
которой нейроны соединялись произвольно случайным образом. Эта
модель опиралась на нейрофизиологическую гипотезу (своеобразный
аналог идеи "tabula rasa", "чистой доски"), утверждавшую, что нервные
клетки мозга вначале практически неотличимы друг от друга и лишь
благодаря опыту и ощущениям организуются в целенаправленное пове
дение. Переход нейронной сети из исходного случайного, неупоря
доченного состояния в упорядоченное стали называть самоорганизацией, а
системы, построенные по этому принципу, - самоорганизующимися.
Впервые систему, реализующую такое понимание самоорганизации,
разработали, как мы уже упоминали в самом начале, Б. Фэрли и У. Кларк
1см. (31, 32)]. Случайная сеть нейроноподобных элементов (смоде
лированная на ЭВМ, а не воссозданная физически) была ими разделена
произвольно на две части - входную и выходную. Выходная часть
делилась на две подгруппы, и общий выход системы (положительный или
отрицательный) определялся как разность числа возбужденных элементов
в этих двух подгруппах. Входная часть также состояла из двух подгрупп,
обозначавших два различных входных образа. Подача одного из этих
образов на вход системы (т.е. возбуждение соответствующей входной
группы) вызывала возбуждение некоторых выходных элементов и
порождала определенное значение выхода. Цель состояла в том, чтобы
заставить систему реагировать на один входной образ положительным
выходом, а на другой - отрицательным. Достигалось это включением в
систему автоматического модификатора связей между элементами. Эти
связи не были фиксированными, как в исходной модели МаккалокаПиттс
а, а снабжались весами. Если после воздействия входного образа
выход оказывался правильным, то веса всех связей, участвовавших в
принятии такого "решения", увеличивались, и наоборот. После продол
жительной серии попеременного предъявления двух входных образов
обнаруживались "благоприятные результаты" [21, с. 22]. "Таким обра
зом, - делает вывод Фэрли, - система сама себя организует для того,
чтобы различать два отличающихся друг от друга входных образа" ртам
же, с. 23].
Среди искусственных самоорганизующихся систем наибольшую извест132
Насть приобрел "персептрон", предложенный Ф. Розенблаттом в 1958 г.
1см. (45)] и позднее активно им развивавшийся 1см. (16, 17, 18)].
Персептрон был реализован "в металле" и предназначался для
распознавания реальных зрительных образов, в частности печатных букв.
Так же, как и в системе Фэрли-Кларка, основу персептрона составляла
сеть нейроноподобных элементов, но делилась она на этот раз на три
группы. Первую группу составляли 400 "сенсорных" элементов, соединен
ных с фотоэлементами, расположенными на квадратном (20 на 20) поле,
куда поступало изображение буквы. Сенсорный элемент возбуждался в
зависимости от того, был ли засвечен соответствующий участок поля.
Далее сенсорные элементы соединялись случайным, но фиксированным
образом с элементами второй группы - "ассоциативными", которые
возбуждались аналогично нейронам в модели Маккалока-Питтса. Затем
выходы ассоциативных элементов через связи с переменными весами
(вначале установленными произвольно) подключались ко входам элемен
тов третьей группы - "реагирующих". Каждой букве соответствовал
"свой" реагирующий элемент, значение выхода которого при предъяв
лении этой буквы должно было превышать значения выходов других
реагирующих элементов. Роль модификатора связей в персептроне играла
"система управления поощрением", которая сравнивала стимул с реакцией
системы и изменяла соответствующим образом веса "полезных" и "вред
ных" связей.
Розенбл*тт считал персептрон моделью зрительного восприятия и
строго увязывал группы искусственных нейронов с определенными
отделами коры головного мозга. Он подчеркивал: "По мнению автора,
программа по исследованию персептрона связана главным образом не с
изобретением устройств, обладающих "искусственным интеллектом", а с
изучением физических структур и нейродинамических принципов, которые
лежат в основе "естественного интеллекта". Персептрон является прежде
всего и главным образом моделью мозга, а не устройством для распоз
навания образов. Его использование в качестве модели мозга позволяет
определить физические условия образования различных физиологических
свойств" [17, с. 18]. Персептрон - типичный пример двойственности кибер
нетического исследования, которое часто трактуется как конструирование
некоторого инженерного устройства, будучи по замыслу созданием модели
естественного объекта.
Доклад Розенблатта на симпозиуме 1961 г. о персептроне, обретающем
"органы чувств", .вызвал у английского кибернетика Г. Ласка ассоциацию
с проблемами эмбриологии: "Как эмбрион, развивающийся под действием
количественно определенного градиента и фиксированного закона эво
люции, внезапно претерпевает качественные изменения?" [15, с. 489]. Эта
аналогия возвращает нас к цитированному выше примеру о "нервной
системе эмбриона, чьи клетки вначале почти не воздействуют друг на
друга, а затем соединяются в систему", который привел Эшби, иллюст
рируя понятие. "самосвязующейся" системы. Следуя его классификации,
системы Фэрли-Кларка и Розенблатта следовало бы отнести к самоорганизующимся
системам первого типа.
Вернемся, однако, к модели Маккалока-Питтса как точке приложения
конструктивной критики. Помимо фиксированности структуры, о которой
говорилось выше, критике подвергалась и фиксированность поведения,
характерная для этой модели* Биологи отмечали, что живые организмы
совершенствуют свое поведение, обучаясь на опыте. Инженеры, со своей
стороны, констатировали, что в этой модели для небольшого изменения
поведения необходим синтез заново всей сети. Требовалась модель
гибкого, изменчивого поведения. Поэтому была выдвинута концепция
"машинного обучения", т.е. выработки приемлемого поведения на основе
прошлого опыта. Эту точку зрения развивал тот же Ф. Розенблатт:
"Многие обсуждавшиеся здесь модели касаются вопроса о том, какую
логическую структуру должна иметь система, чтобы обладать некоторым
свойством X. Вопрос можно поставить и по-другому: какого рода система
может развить свойство X" [18, с. 471]. Эту методологическую посылку
Маккалок не принял. Его по-прежнему интересовало "конструирование
моделей работы нервной системы, а не моделей пути ее прихода к
данному состоянию" [40, р. 49]. Розенблатт же конструировал персептрон
именно как обучающуюся машину: "В каждом случае объектом анализа
является экспериментальная система, включающая в себя персептрон,
определенную окружающую среду и процедуру обучения или внешнюю
обучающую систему" [17, с. 41].
Обучение подразумевает совершенствование поведения, его лучшую
организацию. Этот процесс совпадает с "самоорганизацией второго типа"
по классификации Эшби. Значит, персептрон Розенблатта следует отнести
к самоорганизующимся системам второго, ,а не первого типа? Пара
доксальность ситуации усугубляется, когда 'ко второму типу начинает
тяготеть и система Фэрли-Кларка. Фэрлй тоже описывает ее как
обучающуюся машину: "Изолировав систему, мы подавали на ее вход
какой-либо тест и отмечали каким-либо произвольным образом ее выход.
Затем мы предоставляли ей возможность приобрести некоторый
определенный опыт, снова испытывали ее ljl смотрели, не улучшились ли
показатели выхода. И если это имело место, то мы говорили, что система
является самоорганизующейся... это - модель обучения" [19, с. 204].
На наш взгляд, парадокс разрешается,* если считать, что Эшби клас
сифицирует лишь значения термина "самоорганизация", но не различные
типы самоорганизующихся систем. Дрло в том, что одна самоорг
анизующаяся система может демонстрирЬвать самоорганизацию в разных
смыслах. Так и произошло в моделях Фэрли-Кларка и Розенблатта. В них
самоорганизация на уровне поведения ("обучение") достигается с
помощью внутреннего механизма самоу*орядочения.
Сложилась модель, которую мы буд*м называть "кибернетическим ме
ханизмом самоорганизации". Перех* от случайной, неупорядоченной
структуры системы к упорядоченной/происходит за счет направленного
изменения связей между элементами. Направление задает специальный
управляющий орган - модификатор/связей у Фэрли-Кларка или система
управления поощрением у Розекблатта. Сам управляющий орган
получает необходимую информацию по традиционному кибернетическому
каналу обратной связи. Именно внесение этого органа снаружи внутрь
системы делает ее самоорганизующейся (Маккей: ""само" - означает
лишь "не другим"" [41, р. 38]). Тем самым система становится иерархичес
кой. Брайнес и Свечинский отмечали, что кибернетическая "самоорганизующ
аяся система содержит по крайней мере два уровня. Один из них
реализует собственно алгоритм функционирования, а второй вносит в этот
алгоритм коррективы в соответствии с сигналами обратной связи о
результате воздействия" [3, с. 25]. В то же время перестройка внутренней
структуры улучшает и поведение системы (так как управляется отри
цательной обратной связью). "Изнутри" такая система выглядит самосвязующейся,
"извне" - обучающейся.
Итак, суммируем кибернетические представления о самоорганизации.
Этот термин употребляется в двух основных значениях:
1 - самоорганизация как самостоятельное повышение организованности
системы: описывает изменение внутренних связей системы; оценивается в
шкале "низкая - высокая организованность" независимо (в общем случае)
от внешних критериев; синоним "самоупорядочения". Присуща самосвязующимся
системам.
2 - самоорганизация как самостоятельное улучшение организации сис
темы: описывает изменение внешних связей системы (со средой), ее пове
дения; оценивается в шкале "плохая - хорошая организация" независимо
(в общем случае) от внутреннего механизма ее достижения; синоним "са
мообучения". Присуща обучающимся системам.
Соответственно возможны три типа самоорганизующихся систем:
1 - обучающиеся, но не самосвязующиеся (гомеостат Эшби),
2 - обучающиеся и самосвязующиеся (система Фарли-Кларка, переелтрон
Розенблатта). Именно они реализуют кибернетический механизм
самоорганизации,
3 - самосвязующиеся, но не обучающиеся. Это "неклассические" кибер
нетические системы. Мы рассмотрим их несколько позднее, нарушив
исторический порядок в угоду логическому.
Кибернетическое обучение путем самоорганизации случайных нейронаподобных
сетей было в 50-е годы очень популярно. Этой теорией увлекся,
заканчивая Гарвардский университет, и М. Минский, будущий крупней
ший ученый в области НИ. Он пытался построить обучающуюся машину
из 400 вакуумных трубок, выполнявших функцию элементов МаккалокаПиттс
а. Машина была призвана смоделировать поведение в лабиринте
четырех крыс, обучающихся избегать встреч друг с другом. Ученую
степень Минский получил, но машина так и не заработала. Причину этого
он видел в принципиальной слабости подхода "случайных сетей" и потра
тил позднее немало усилий на его развенчание. В 1969 г. совместно с
С. Пейпертом он написал книгу (см. (11)], в которой доказывал огра
ниченность возможностей устройств, подобных персептрону, предло
женному Розенблаттом (кстати, его бывшим соучеником по Высшей
научной школе в Бронксе). Один из главных недостатков таких устройств
состоял в том, что, отличая букву А от В, они не могли узнать эти
символы в комбинации ВА, считая ее новой, неизвестной буквой. "Я не
хотел заниматься тем, что не работало", - сказал Минский [цит. по (39,
р. 86)] и, как примерный ученый, отказывающийся от бесплодного направ
ления, перешел к исследованиям по НИ.
Самоорганизующнеся системы искусственного интеллекта
НИ как исследовательская область возник в середине 50-х годов. Его
целью было провозглашено создание машин, способных выполнять интел
лектуальные функции. При этом специалисты по НИ открыто про
тивопоставили свой подход кибернетике, в частности "самборганизующимся
системам". Они отказались от кибернетического моделирования
нейронной активности мозга, избрав путь моделирования интеллекта на
компьютерах, обрабатывающих символьную информацию. Человеком
ашинная параллель, проводимая кибернетикой на физиологическом
(аппаратном) уровне, была перенесена в НИ на символьный уровень. Об
этом метко сказал Минский: "Мне потребовалось много времени, чтобы
перейти от попыток понять, как работает мозг, к пониманию того, что он
делает" faro, по (Там же, с. 84)].
Отказ от моделирования случайных нейроноподобных сетей повлек за
собой забвение кибернетического механизма самоорганизации. В НИ соз
давалось немало обучающихся систем, но их уже не называли самоорг
анизующимися.
Если в раннем НИ и использовалась терминология "самоорганизующихся
систем", то весьма своеобразным образом. На конференции
1959 г. был представлен доклад видных исследователей НИ А. Ньюэлла,
Дж. Шоу и Г. Саймона (см. (12)]. Они создали компьютерную программу
ОРП ("Общий Решатель Проблем"), предназначенную для решения
произвольных интеллектуальных задач, представленных в специальной
форме (в виде поиска перехода от начального выражения к целевому
конечному выражению при заданных правилах уменьшения отдельных
различий между выражениями). Авторы считали, что "поскольку ОРП
претендует на разрешение широкого класса задач, вероятно, возможно
сделать ОРП программой ее собственного обучения" (Там же, с. 214].
Задачу улучшения работы некоторых частей ОРП им действительно
удалось записать в требуемой форме, т.е. система могла как бы
совершенствовать сама себя. Авторы назвали это "самоорганизацией":
"Идея использования той же "интеллектуальной" программы и для
собственного обслуживания опирается на глубоко укорененные пред
ставления о "самообращенном" характере явления самоорганизации" (Там
же, с 237]. Здесь заявлено новое, третье понимание самоорганиза
ции - как самообращенности, направленности деятельности всей системы
на себя же (в отличие от кибернетического механизма, где одна часть сис
темы организует другую). Однако, на наш взгляд, пример, приведенный
Ныоэллом, Шоу и Саймоном, как раз не демонстрирует явления "самообр
ащенности". В данном случае одна-система ОРП улучшает другую
систему ОРИ, но отнюдь не саму себя. Она "работает" с ней, как с "дру
гой", как с посторонней задачей. Изначальная тождественность орга
низующего и организуемого никак не используется. В дальнейшем этот
замысел так и не был реализован, и идея "самоорганизации как самообр
ащенности" осталась на время забытой.
В НИ при создании "разумных" машин в них, как правило, заклады
вались сложные интеллектуальные процедуры. Но были и исключения,
когда задача "вразумления" машины возлагалась на нее саму, а не на
человека-программиста. Такие машины должны были самостоятельно
эволюционировать от неинтеллектуального поведения к интеллектуаль
ному. Одна из первых попыток такого рода принадлежала американскому
ученому Р. Фридбергу 1см. (33, 34)]. Его "Обучающаяся машина" должна
была научаться решать задачи без предварительного объяснения, как это
сделать. Фридберг писал: "Если машине не говорится, как делать нечто,
то надо по крайней мере указать, что надо делать, иначе мы не сможем
сконцентрировать усилия на определенной проблеме. Но не видно способа
сказать что, не говоря как, кроме как позволив машине вырабатывать
процедуры случайным образом (или с помощью некоторой неинтел
лектуальной системы) и сообщая ей постоянно, делает ли она то, что
требуется, или нет" [33, р. 2].
Здесь кибернетическое обучение опирается на новый механизм -
случайную генерацию состояний системы. "Обучающаяся машина"
предназначалась для автоматического составления вычислительных ком
пьютерных программ. Она начинала с произвольной последовательности
команд, применявшейся к исходным данным. Далее система двигалась по
градиенту, выбирая направление в зависимости от близости полученного
результата вычисления к требуемому. На каждом шаге в последо
вательности изменялась одна команда (аналог мутации в генетике). Если
результат был благоприятным, это изменение закреплялось и происходила
"мутация" другой команды, в противном случае - возврат на шаг назад. В
отличие от кибернетического обучения путем поощрений и наказаний,
напоминающего онтогенез, Фридберг использовал скорее "филогене
тическую" процедуру, включающую мутации и отбор по результатам
деятельности. Неудачная последовательность команд "погибала", а
"выжившая" давала мутированное "потомство". Однако, Фридберга по
стигла неудача: эволюция шла медленно и неэффективно, к тому же
выяснилось, что наследование свойств "родителей" вообще не имеет
смысла, так как чисто случайный поиск из того же исходного состояния
дает требуемый результат в 1000 раз быстрее!
Тем не менее идея эволюционного пути к НИ развивалась и далее в
работах Л. Фогеля с соавторами [см. (20)]. Традиционные подходы к
проблеме создания НИ основывались на моделировании человеческого
мышления, на подражании "наиболее разумному существу". Фогель
считал эту точку зрения слишком эгоцентричной: "Хотя человек,
безусловно, разумное создание, яет оснований полагать, что он наиболее
интеллектуальное существо, которое вообще возможно. Эксперимент
природы продолжается, и ввиду ее прежних успехов в создании существ
последовательно все более высокой интеллектуальности кажется вполне
разумным предположить, что некоторые будущие существа будут
обладать значительно большим интеллектом, чем современный человек.
В этом свете было бы, пожалуй, полезным заменить процесс моде
лирования человека моделированием процесса его эволюции" ртам же,
с. 28]. Реализация подхода "эволюционного моделирования", полагал
Фогель, позволила бы создать машины, не воспроизводящие, а
превосходящие мышление человека. Система Фогеля имитировала эволю137
цию конечных автоматов (математических объектов с конечным числом
возможных состояний, входов и выходов, изображаемых обычно в виде
графа - множества вершин, соединенных стрелками). "Мутации" пред
ставляли собой изменения направления стрелок, добавление новых вер
шин и т.п., а отбор "потомков" осуществлялся по результатам предска
зания конечным автоматом очередного входного символа. Недостатки у
этой системы оказались те же: подъем по градиенту путем случайных
мутаций был слишком медленным, застревающим на локальных мак
симумах.
Эволюционный подход прямо не связывался его адептами с тематикой
самоорганизации, но имеет к ней, на наш взгляд, непосредственное
отношение. Он возник как важная альтернатива кибернетическому меха
низму самоорганизации, предусматривавшему направленное изменение
внутренней структуры с помощью специального организующего звена,
входящего в систему. В эволюционной модели такое звено отсутствует,
изменения структуры случайны. С одной стороны, такой шаг резко снизил
эффективность обучения и обрек это направление на неудачу, с другой
же - послужил толчком к поиску иных, отличных от кибернетического,
механизмов самоорганизации.
Среди тех, кто безуспешно пытэлся в начале 70-х годов применить
эволюционный подход к автоматическому программированию, был и
американский исследователь Д. Лопат. Использование процедуры случай
ных мутаций с последующим отбором наилучшие потомков в качестве
родителей для следующего поколения Ленат назвал "парадигмой слабого
генератора и строгого теста" [37, р. 286]. Вначале, вслед за Фридбергом и
Фогелем, он считал, что добьется успеха с помощью случайных мутаций.
"Эта гипотеза была простой, элегантной, эстетичной и неверной" (Там
же]. Время, необходимое для синтеза или модификации компьютерной
программы эволюционным методом, росло экспоненциально с ее длиной,
что вскоре вело к комбинаторному взрыву. Кроме этого "материального"
фактора, сказывался еще и "моральный" - эволюция оказалась не лучше
простой схемы случайного поиска.
Альтернативой, предложенной Ленатом, оказался механизм неслучай
ных мутаций, включенный в процедуру "полезной генерации и проверки".
Вместо кибернетической машины, подобной "чистой доске", начинающей с
нуля. Лопат создал систему, которая уже многое "знала". Она владела
правилами, как делать открытия, и правилами, как открывать новые
правила, как делать открытия. Задуманная в 1976 г. как развитие ранней
системы AM, программа "Эвриско" заработала в начале 80-х. Она
содержала исходный набор базисных понятий (заимствованных из работ
Ж. Пиаже) и правила-эвристики (вида "Если условие ТО действие" со
сложной структурой), способные изменять старые и порождать новые
понятия. Приведем простую эвристику: "Если у понятия мало примеров,
то обобщить его". Другие эвристики управляют специализацией понятий,
их композицией, порождением по аналогии и т.д.
Центральным моментом в системе Лопата является формулировка
самих эвристик в виде понятий. Это позволяет применять эвристики к
эвристикам, т.е. заставить эволюционировать саму процедуру эволюции,
достигая тем самым "полезной генерации". Способы направленного
"мутарования" эвристик многообразны: изменение условий или действий
путем вариации логических связок (замена конъюнкции на дизъюнкцию
вызывает обобщение), добавление новых условий или действий,
заимствованных у других эвристик, и т.п. При этом эвристики, при
меняемые к эвристикам ("метаэвристики"), ничем не отличаются от
эвристик, действующих на обыкновенные понятия (в то время как в
экспертных системах, активно развиваемых в НИ, предметные правила
строго отделены от метаправил). В "Эвриско", замечает Лопат, "нет
необходимости отличать метаэвристики от просто эвристик" [36, р. 226].
В этой ситуации каждая эвристика потенциально может воздействовать
на любое понятие (включая любую эвристику) и, следовательно, на всю
систему в целом. Иногда это приводило к трагикомичным случаям.
Однажды появилась одна эвристика, которая посоветовала просто
уничтожить все эвристики, ранее синтезированные системой. К счастью,
она погибла одной из первых, так что вопрос решился сам собой.
С появлением "Эвриско" в НИ после многолетнего перерыва возроди
лась тематика самооргзнизации. Ленат писал, что "парадигма, лежащая в
основе программ AM и "Эвриско", может рассматриваться как новое
поколение персептронов, базирующихся на собраниях или объединениях
развивающихся, самоорганизующихся, символических структур знания. В
классических персептронах все знания должны были быть закодированы в
виде топологических сетей связанных нейронов со взвешенными связями.
Схема представления, используемая в "Эвриско", обеспечивает гораздо
более мощные связи, принимающие форму эвристик для понятий,
включая и эвристики, указывающие, как использовать и развивать
эвристики. Оба типа персептронов опираются на закон больших чисел, на
локально-глобальное свойство достижения адекватного поведения через
взаимодействие большого количества небольших, относительно простых
частей" [38, р. 292].
Лопат, по сути дела, предложил новый механизм самоорганизации. В
устройствах типа персептрона или эволюционных моделях элементы
системы остаются пассивными, ее структура изменяется внутренним
управляющим органом либо случайным образом. В системе "Двриско",
напротив, каждый элемента любая эвристика является потенчиальным
источником активности. Она может воздействовать на любую другую
эвристику и вследствие этого получать обратное воздействие. Связи
между элементами 'носят самообращенный характер. В отличие от
описанной выше системы Ньюэлла, Шоу и Саймона, которая была
целиком "обращена", на себя как целое, "Эвриско" переводит самообр
ащенность на уровень взаимодействия своих элементов.
В то же время "Эвриско" была обучающейся системой. Она исполь
зовала результаты пробных игр для увеличения ценности удачно прора
ботавших эвристик и снижения ценности-бесполемья и "вредных". "Эвриско"
сочетала в своей работе кибернетическое обучение с новым внут
ренним механизмом самоорганизации - назовем его "синергическим" (ис
точник силы своей програмы Ленат видел в синергическом взаимодействии
эвристик, превышающем эффект их простой суперпозиции) [36,
р. 218]. "Эврис*о" продемонстрировала свою эффективность, открыв ряд
новых понятий в разных областях и победив на двух национальных
чемпионатах США по очень популярной среди американцев игре
"Морская эскадра за три миллиарда".
"Эвриско" развивалась, самостоятельно производя все новые и новые
структуры, и лишь практическая направленность работы заставляла
Легата отбирать из этих структур те, что вели к цели. Эта цель была
целью Дугласа Лопата, но не системы "Эвриско": синергический механизм
самоорганизации направляется не целью, а локальными взаимодействиями
элементов, соединенных самообращенными связями.
Неклассический кнбернетическиА подход"
В рамках кибернетики развивалось и неклассическое направление
изучения самоорганизующихся систем, предложившее механизм самоорга
низации, близкий скорее к синергическому, чем к классическому кибер
нетическому. Как ни парадоксально это звучит, но во второй половине
50-х годов таким "неклассиком" стал именно основатель кибернетики
Норберт Винер. Эволюция его взглядов произошла в период от первого
(1948) до второго (1961), дополненного издания "Кибернетики". Он
обнаружил, что "простые линейные обратные связи, изучение которых
сыграло такую большую роль в пробуждении интереса ученых к
кибернетическим исследованиям, оказываются совсем не такими простыми
и линейными, как представлялось сначала" [5, с. 30]. Ранее на изучение
нелинейных цепей распространялись линейные понятия прежней электро
техники: "...обычный способ подхода к нелинейным устройствам состоял в
том, что искалось расширенное понятие импеданса, которое охватывало
бы как линейные, так и нелинейные системы. В результате нелинейная
электротехника пришла в состояние, подобное состоянию Птолемеевой
системы астрономии в последний период ее существования, когда
нагромождали эпицикл на эпицикл, поправку на поправку, пока все это
латаное сооружение не рухнуло под собственной тяжестью" (Там же].
Пользуясь терминологией И. Лакатоса (см. (9)], можно сказать, что
старая научно-исследовательская-программа выставила "защитный пояс",
который, однако, не спас ее от регресса, и Винер предложил новую: "В
этом направлении я даю скорее программу, чем законченное исследо
вание, но программу, на которую я возлагаю большие надежды" [5, с. 39].
К тому времени интересы Винера "все более сосредоточивались вокруг
изучения ритмических процессов в живых организмах, порождаемых
реакцией таких организмов, обыкновенно нелинейной, на случайные
входы" [6, с. 18]. Исследуя электроэнцефалограммы человеческого моз
га, он обнаружил в центре альфа-ритма узкую и резкую полосу
возбуждения с характерным распределением частот. Механизм такой
"самоорганизации мозговых волн" он увидел в нелинейном взаимодействии
*См. также статью В.Кроиа, Г. Кюпперса и Р. Паслака в настоящем сборнике.
внутренних генераторов, создающем притяжение частот (см. X дополни
тельную главу "Мозговые волны и самоорганизующиеся системы" второго
издания "Кибернетики" [см. (5)]).
Подобный механизм Винер качественно описал при разборе другого
примера в статье 1958 г.: "...при образовании сосудистой системы заро
дыша позвоночного образуются определенные сократительные клетки,
которые вскоре уже составляют сердце с регулярным биением. Каким
образом эти клетки вовлекаются в согласованное действие?
Я представил себе ситуацию, при которой эти клетки исполняют как
органы информации двоякую роль. С одной стороны, они вырабатывают
электрические импульсы, способные воздействовать на другие подобные
клетки. С другой - они принимают такие импульсы, и их деятельность
изменяется вследствие этого приема. Если бы отношения между этими
органами как передатчиками и как приемниками были линейными, то
такие органы не могли бы изменять частоту колебаний друг у друга. Если,
однако, имеет место тенденция ко взаимодействию частот двух коле
блющихся элементов, будь то взаимное притяжение частот или, может
быть, их взаимное отталкивание, то появляется возможность организации.
Такая система, по мере *ого как она приобретает все больший и больший
синхронизм, будет испускать импульсы, имеющие все большую и боль
шую тенденцию синхронизировать осцилляторы, еще не вовлеченные в
пульсацию, пока, наконец, благодаря массовому действию они не составят
один пульсирующий орган" [6, с. 21-22].
У Винера, как и в описанном выше синергическом механизме самоор
ганизации, самообращенный характер связи элементов системы стано
вится источником их согласованного действия. Он даже использует тот же
термин: "...реакция нелинейной системы на случайные входы дает нам
ключ к способности физиологических процессов организовываться в
определенную синергическую деятельность" (Там же, с. 19-20].
Явление самоорганизации Винер иллюстрировал и на примерах, не
связанных с живыми организмами. Он описал притяжение частот гене
раторов переменного тока, присоединенных параллельно к одной сборной
шине: "В этом случае генераторы, стремящиеся вращаться быстро или с
опережением фазы, будут нести большую нагрузку, чем нормальные, а
вращающиеся медленно или с отставанием фазы - меньшую. Резуль
татом будет ускорение медленных членов и замедление быстрых. Если
даже ускорение и замедление отдельных членов регулируется приданными
им специальными регуляторами, то вся система в целом будет содержать
скрытый регулятор, более сильный, нежели любой из инидивидуальных
регуляторов. Интересно отметить, что этот скрытый регулятор распре
делен по всей системе и не может быть локализован ни в одной ее части.
Это наводит на мысль, что во многих проблемах, и в частности в случае
головного мозга, мы были, по-видимому, чрезмерно склонны предполагать
резкую локализацию функций" (Там же, с. 22].
"Неклассические" идеи Винера, однако, увлекли лишь малую часть
кибернетического научного сообщества. Г. Ласк представлял элементы
"абстрактной самоорганизующейся системы" в виде нелинейных усилите
лей или генераторов (см. (13)]. Позднее он разработал модель самоор141
ганизующейся системы в виде группы студентов, где учителем выступает
всякий раз тот студент, который лучше усваивает данный материал. В
результате "в самоорганизующейся системе нет выделенного студентаучителя,
его роль распределена" [42,р. 304]. Трудности локализации
функций отдельных элементов реальной самоорганизующейся системы
подчеркивал и М.Г. Гаазе-Рапопорт. Выделяя традиционные части кибер
нетического механизма самоорганизации - преобразователь информации,
непосредственно связанный с окружающей средой, и модификатор,
осуществляющий перестройку режимов работы преобразователя, он
отмечал: "...в конкретных примерах самоорганизующихся систем преоб
разователь и модификатор часто бывают настолько тесно связаны друг с
другом, что не всегда оказывается возможным конструктивно их
разделить" [7, с. 160]. Ф. Розенблатт также пытался избавить персептрон
от "системы управления поощрением", вводя перекрестные связи между
ассоциативными элементами и рассчитывая на "самопроизвольное под
крепление". Распознавание образов таким персептроном было крайне
неустойчиво [см. (18, с. 480)]. "Распределенное управление", "скрытый
регулятор", характерные для синергического механизма самоорганизации,
были несоместимы с кибернетическим механизмом, требующим строгого
выделения внутреннего управляющего органа. Поэтому "связующиеся, но
не обучающиеся" самоорганизующиеся системы не получили в кибернети
ке достойного признания.
Связь с исследованиями в синергетике
Синергический механизм самоорганизации, на наш взгляд, схож с про
цессом возникновения пространственных, временных и пространственновременных
структур в нелинейных неравновесных системах, изучаемых
синергетикой. Эта наука получила свое название от "синергического" (сов
местного, согласованного) взаимодействия элементов, образующих целое,
чьи свойства не сводятся к простой суперпозиции свойств частей.
Источник нелинейности обнаруживается здесь тоже в самообращенности
внутренних связей системы. Примером могут служить изучаемые
школой И. Пригожина-авто- и кросс-каталитические реакции: "В цепи
химических реакций, происходящих в системе, устойчивости стационар
ного состояния могут угрожать только стадии, содержащие автокаталитические
петли, т.е. такие стадии, в которых продукт реакции участвует
в синтезе самого себя" [14, с. 200]. "Каталитические петли соответствуют
нелинейным членам уравнений" (Там же, с. 199]. В результате получается
периодический химический процесс - химические часы, - в котором кон
центрации веществ испытывают регулярные колебания.
Возникновение временных структур при самоорганизации изучил и
Н. Винер. При описании мозговых волн он заметил, что "резкая линия
частоты эквивалентна точным часам" [5, с. 275]. Другой представитель
теклассического кибернетического подхода - Г. Паек - указывал на
сходство элементов "абстрактной самоорганизующейся системы" с катали
заторами, изучаемыми Пригожиным (см. (13, с. 330)].
Оба механизма самоорганизации - синергический у Винера, Ласка и
Лената и синергетический у Пригожина, Хакена и других синергетикой -
имеют одну основу: самообращенные, самореферентные связи между эле
ментами, позволяющие производить структуры, создавать в системе
организацию за счет локальных взаимодействий, без управляющих команд
(как заметил Г. Хакен, в лазере нет никого, кто бы мог давать такие
команды атомам).
Синергетика существенно расширяет за счет объектов неживой
природы круг процессов самоорганизации, изучавшихся кибернетикой. По
определению Хакена, "синергетика занимается изучением систем, состоя
щих из многих подсистем самой различной природы, таких как электроны,
атомы, молекулы, клетки, нейроны, механические элементы, фотоны,
органы, животные и даже люди" [22, с. 19].
При этом синергетика использует методологию, отличную от клас
сической кибернетической. Если кибернетическая система-организуется
под действием управляющего органа, то в синергетике "управляющие
параметры" не управляют непосредственно поведением системы, но
"запускают" ее внутренний механизм самоорганизации. Хакен писал:
"И кибернетика, и синергетика придают первостепенное значение
понятию управления, но при этом преследуют совершенно различные
цели. Кибернетика занимается разработкой алгоритмов и методов, позво
ляющих управлять системой для того, чтобы та функционировала заранее
заданным образом. В синергетике мы изменяем управляющие параметры
более или менее непредсказуемым образом и изучаем самоорганизацию
системы, т.е. различные состояния, в которые она переходит под воздей
ствием "рычагов управления"" (Там же, с. 362]. Та же методология
присуща и исследованиям Лопата в области НИ, и неклассическому
кибернетическому подходу.
Поведение и классических кибернетических, и синергических (синергетических)
самоорганизующихся систем выглядит целенаправленным, но
в первом случае эта цель задается заранее, а во втором система сама
"выбирает" путь своего развития к более высокой организации.
Заключение
В настоящее время классическое кибернетическое понимание самоор
ганизации стало уже достоянием истории, повсеместно доминирует
синергический механизм. Это связано с глобальным регрессом кибер
нетической исследовательской программы, о котором следует сказать
несколько слов. ,
Кибернетическое понимание "управления в животном и машине" как
централизованной, ие))архической структуры, где информация "снизу"
поступает лишь к* конечный результат по каналу обратной связи, а
решение приним*тся только "наверху", оказалось не способным ни
отразить сложно*ь функционирования реальных систем, ни дать модели
для построения и*еллектуальных машин. Современное понимание слож
ных систем требует иного отношения к функционированию их подсистем -
не как к подчиненным целому элементам, а как к синергически взаимо
действующим частям, рождающим целое.
Советский кибернетик М.Л. Петли" еще в начале 60-х годов начал
движение "вспять" классического кибернетического подхода, введя
понятие "безадресного управления": "Если считать, что все управление
происходит сверху донизу адресным способом, то система становится
очень сложной... Если заданы условия игры, автоматы уже сами находят
нужные действия. При этом они не нуждаются в индивидуальных
указаниях" [24, с. 155]. Позднее эти идеи были развиты специалистом по
НИ Д.А. Поспеловым в концепции "децентрализованного управления",
когда "сложные процессы развиваются не за счет централизованных
воздействий, а за счет локальных взаимодействий их элементов" [4, с. 4].
В этом смысле доминирование синергической точки зрения над
кибернетической выходит за рамки узкой проблематики самоорганизации.
Речь идет не просто о смене механизма осуществления частной системной
функции, а о новом подходе к анализу сложных систем.
ЛИТЕРАТУРА
1. Бионические принципы самоорганизации: Тр. III Всесокан. симпоз. по кибернетике. Тби
лиси, 1969.
2. Б up Ст. На пути к кибернетическому предприятию 11 Принципы самоорганизации. М.,
1 966. С. 48-1 1 7.
3. Брайнес С.Н., Свечинский В.Б. О принципах управления и самоорганизации в биологи
ческих системах 11 Бионические принципы самоорганизации. Тбилиси, 1969.
C.21-31.
4. Варшавский ВМ., Поспелов Д.А. Оркестр играет без дирижера. М., 1984.
5. Bump Н. Кибернетика. 2-е изд. М., 1968.
6. Винер-Н. Мое отношение к кибернетике: Ее прошлое и будущее. М., 1969.
7. Гоше-Рапопорт М.Г. Автоматы и живые организмы. М., 1-961.
8. Иовите М.К. Предисловие 11 Самоорганизующиеся системы. М., 1964. С. 1 1-14.
9. Лакатос И. История науки и ее рациональные реконструкции 11 Структура и развитие
. науки. М., 1978. С. 203-269.
10. Маккалок У-С., Питтс У. Логическое исчисление идей, относящихся к нервной акти
вности 11 Автоматы. М., 1956. С. 362-384.
11. Минский Ы., Пейперт С. Персептроны. М...1971.
12. Ньюэлл А., ШоуДж., Саймон Г. Разновидности интеллектуального обучения GPS 11
Самоорганизующиеся системы. М., 1964. С. 211-257.
13. Паек Г. Естественная история цепей 11 Там же. С. 318-354.
14. Пригожим И., Стенкре И. Порядок из хаоса. М., 1986.
15. Принципы самоорганизации. М., 1966.
16. Розенблатт Ф. Обобщение восприятий по группам преобравований 11 Самоорганизующиеся
системы. С. 65-106.
17. *'менДлатоп Ф. Принципы нейродинамики. М., 1965.
18. Розенблатт Ф. Стратегические подходы к исследованию моделей мозга 11 Принципы
самоорганизации. М., 1966. С. 469-482.
19. Самоорганизующиеся системы. М., 19641
20. Фогель Л., Оуанс А:, Уолт М. Искусственный интеллект и эволюционное моделирова
ние. М., 1969.
21. Фарли Б .Г. Самоорганизующиеся модели для обученного восприятия 11 Самоорг
анизующиеся системы. С. 19*.
22. Хакен Г. Синергетика: Иерархии неустойчивостей в самоорганизующихся системах и
устройствах М., 1985.
23. Хоукинс Дж. Самоорганизующиеся системы: Обзор *комментарии 11 ТИРИ. 1961. ь 1.
C.37-55.
Закладка в соц.сетях