Жанр: Электронное издание
ПРОБЛЕМА САМООРГАНИЗАЦИИ В ИССЛЕДОВАНИЯХ
ПО КИБЕРНЕТИКЕ И ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ
В-А. Герович
Возникнув в ряде эпизодических публикаций конца 40 - первой
половины 50-х годов, проблема самоорганизации вскоре стала одной из
наиболее актуальных тем кибернетических исследований. В программной
статье 1958 г. для первого номера нового бельгийского журнала "Кибер
нетика" Н. Винер писал о самоорганизации как точке сосредоточения
своих текущих интересов [см. (6, с. 18)]. В США были организованы две
крупные международные конференции по самоорганизующимся систе
мам в 1959 [см. (19)] и 1962 1см. (46)] годах и международный симпозиум в
1961 г. [см. (15)], число участников которых достигало 400 человек. Затем
волна интереса к идеям самоорганизации переместилась в СССР, где эта
проблема обсуждалась на симпозиуме по бионике в Баку в 1964 г.,
конференции в Москве в 1965 г., секции "Бионические принципы само
организации" 111 Всесоюзного симпозиума по кибернетике (Тбилиси,
1967 г.) (см. (1)]. В конце 60-х годов, когда сложность реальных систем
поставила границу кибернетическому подходу, бум пошел на убыль. В то
же время о самоорганизации заговорили физики и химики, изучающие
нелинейные неравновесные системы в русле нового научного направления
- синергетики. В начале 80-х годов в области искусственного интеллекта
(НИ) появляются работы, также увязанные с тематикой самоорганизации.
Столь обширное распространение проблематики самоорганизации по
временным и дисциплинарным координатам вызывает очевидный вопрос:
как соотносится само понимание проблемы самоорганизации в различных
областях исследования, как оно развивалось в исторической динамике?
Что объединяет дисциплины со столь разными предметами исследования,
что заставляет их использовать единую терминологию? Не вкладываются
ли в одни и те же слова совершенно разные значения?
Кибернетические представления о самоорганизации уже не раз
становились предметом специального рассмотрения (см. (27, 28)]. В этих
работах, однако, логический анализ явно доминировал над историческим.
В то же время пестрое разнообразие кибернетических воззрений на само
организацию постоянно нарушало логическую стройность априорных клас
сификаций. В результате единая "абстрактная схема самоорганизующейся
системы" Б .Г. Година объединяет принципиально различные трактовки
самоорганизации, а у У.Р. Эшби, наоборот, одна и та же реальная самоорг
анизующаяся система может попасть в два разнмх класса одновременно.
Нас будут интересовать реально бытовавшие, а не просто логически
возможные кибернетические представления о самоорганизации. Мы
рассмотрим их синхроническое разнообразие и диахроническую динамику,
соотнесем с исследованиями в области НИ, которые практически не
освещались в обзорной литературе по самоорганизации. Также не был
изучен вопрос о связи кибернетики с синергетикой. Отсутствие прямых
ссылок синергетиков на их кибернетических предшественников породило
125
впечатление, что трактовки проблемы самоорганизации в этих дисципли
нах совершенно различны.
На наш взгляд, несмотря на несходство предметов исследования, уче
ные из разных областей нередко проявляли общность подхода к проблеме
самоорганизации на уровне качественного понимания механизма осущест
вления этого процесса. Можно выделить два таких механизма, условно
называемых "кибернетическим" и "синергическим".
В классической кибернетике была разработана модель кибернетичес
кого механизма самоорганизации, предусматривающая упорядочение
структуры системы в тесной связи с улучшением ее поведениД за счет
обратной связи с окружающей средой. Подобные системы с точки зрения
внутренних связей представлялись самосвязующимися, а по отношению к
среде-самообучающимися.
Другая ветвь кибернетических исследований, которую мы будем
называть "неклассической", вовлекла в орбиту внимания естественные и
искусственные системы, в которых самоупорядочение структуры проис
ходило спонтанно, вне целей, связанных с обучением.
В области НИ был разработан эволюционный механизм самообучения,
обладавший спонтанным (случайным) характером. Позднее на его базе
был создан синергический механизм самоорганизации, основанный на
самообращенных связях между отдельными активными элементами
системы. Этот механизм имеет многие общие черты с неклассическим
кибернетическим подходом и современными исследованиями в синерге
тике, также обнаруживающими источник самоорганизации в самообращенности
внутренних связей системы.
Два понятия самоорганизации различаются прежде всего по их отно
шению к целенаправленности поведения системы. Кибернетический меха
низм подразумевает наличие заранее определенной цели, к которой сис
тема стремится самостоятельно (и в силу этого является самоорганизующейся).
Синергический механизм не требует цели, "самоорганизованность"
системы проявляется в спонтанности возникновения некоторой ор
ганизации, никак не заданной извне.
При всем разнообразии задач, стоящих перед исследователями в
разных областях, общее понимание механизма самоорганизации позволяло
им черпать друг у друга полезные аналогии и обусловило высокую
научную плодотворность этой идеи.
Истоки и особенности
кибернетических исследований самоорганизации
Один из организаторов конференции по самоорганизующимся системам
1962 г. М.К. Повито писал, что термин "самоорганизующаяся система"
впервые использовали Б. Фэрли и У. Кларк в статье 1954 г.
(см. (32)] в значении "система, изменяющая свои основные структуры в
зависимости от опыта и окружения" [46, с. 1Х1. Нетрудно убедиться,
однако, что еще в 1947 г. английский кибернетик У.Р. Эшби опубликовал
написанную годом раньше статью "Принципы самоорганизующейся
динамической системы" (см. (29)], где ввел это понятие иначе. Но мнение
Иовитса не было просто ошибочным. Оно отражало разную судьбу этих
статей: одна была принята и подхвачена кибернетическим научным
сообществом, другая прошла незамеченной, и даже ее автор позднее
изменил свою точку зрения.
Тем не менее мы начнем именно с этой ранней работы Эшби, ибо нас
интересует скорее постановка проблемы самоорганизации, чем ее
окончательное решение (которое, по-видимому, не найдено до сих пор). В
начале статьи автор констатирует скептическое отношение своих коллег
к идее о том, что "машина может быть "самоорганизующейся", т.е.
детерминированной и тем не менее производящей спонтанные изменения
внутреннего состояния" [Там же, с. 125]. Далее он вводит определения
"машина" (эквивалент "абсолютная система", описываемая системой
обыкновенных дифференциальных уравнений, правая часть которых не
зависит от времени), "организация" (определяется формой правой части
уравнений) и "самоорганизация" (спонтанный переход от одной органи
зации к другой). Элементарные математические выкладки позволяют
Эшби сделать вывод, что в случае, когда одна из переменных является
ступенчатой функцией, ее можно исключить из уравнений, переопределив
функции в правой части. Тогда изменения значения этой переменной
будут приводить к скачкам в организации, которые будут выглядеть
спонтанными. Тем самым, считал Эшби, "разрешается противоречие
относительно нервной системы. Требование, согласно которому она
должна быть строго детерминированной механистической системой, будет
удовлетворено, если мы включим в нашу "систему" все переменные,
относящиеся к нервной системе, что будет соответствовать системе в
переменных. Другое требование, согласно которому нервная система
представляется спонтанно меняющей свою организацию... будет справед
ливо для п-ш переменных, относясь, таким образом, к наблюдаемому
извне поведению при игнорировании событий или переменных внутри
нервной системы" (Там же, с. 128].
Для Эшби "образца 1946 г." самоорганизация эквивалентна спонтан
ному изменению организации, при этом направление изменения не играет
роли. Механизм самоорганизации прост - выявление своеобразных
"скрытых" переменных открывает строгий детерминизм действия
системы. Естественным прототипом самоорганизующейся системы явля
ется нервная система, и данная схема есть ее абстрактная модель.
Методологический вывод, который можно сделать из этой статьи Эшби:
самоорганизация - субъективная характеристика. В зависимости от числа
переменных, включаемых наблюдателем в описание системы, она или
является самоорганизующейся, или нет.
Эту методологическую установку Эшби сохранил и в дальшейшем,
хотя в целом его воззрения на проблему самоорганизации заметно
изменились. В докладе на симпозиуме 1961 г. он отмечал, что "сущест
венная часть теории организации касается свойств, которые не являются
внутренне присущими реальным объектам, а зависят от отношения между
наблюдателями и объектами" [27, с. 317].
Рассматривая далее различные возможные определения само
организации, Эшби приходит к выводу, что прилагательное "самоорганизующ
аяся", "применяемое слишком свободно, является неопределен
ным, а если его применять слишком точно - противоречивым" (Там же,
с. 327]. С одной стороны, "ни об одной системе нельзя строго утверждать,
что она является самоорганизующейся" [Там же, с. 331], с другой -
"каждая машина может считаться "самоорганизующейся", так как она
разовьет... некоторые функциональные структуры, гомологичные "прис
пособленному организму"" (Там же, с. 336]. Неудивительно, что Эшби
заключает: "так как выражение "самоорганизующаяся" ведет к
укоренению весьма путаного и противоречивого представления о данной
проблеме, это выражение, вероятно, вообще не следовало бы употреб
лять" (Там же, с. 331].
Не теряя времени в ожидании, пока все последуют этому замеча
тельному совету, Эшби решил хотя бы упорядочить текущее исполь
зование этого "выражения". Он выделил два различных значения термина
"самоорганизующаяся система".
Во-первых, самоорганизацией может состоять в переходе "от системы с
независимыми частями к системе с зависящими друг от друга частями"
(Там же, с. 328], при этом не учитывается, хороша или плоха воз
никающая организация. Пример - "нервная система эмбриона, чьи клетки
вначале почти не воздействуют друг на друга, а затем соединяются в
систему" (Там же]. Системы такого рода Эшби предложил называть
"самосвязующимися".
Во-вторых, самоорганизацией можно считать переход от плохой
организации к хорошей, когда, например, ребенок, вначале потянувшись к
огню, затем уже избегает его (см. (27, с. 328-329)]. Правда, оговари
вается Эшби, "не существует "хорошей организации" в абсолютном
смысле. Она всегда относительна: и организация, хорошая в одном смысле
или при одном критерии, может быть плохой в другом смысле или при
другом критерии... Любопытство - вещь хорошая, но много антилоп
погибло, остановившись поглядеть на шляпу охотника" (Там же, с. 324325].
Эшби также ссылается на опыты К. Прибрама, обнаружившего, что
обезьяны с оперированным мозгом набирали в некоторых текстах больше
очков, чем нормальные (оперированные были терпеливы и усидчивы,
тогда как нормальные проявляли беспокойство и все время отвлекались).
Сходную дихотомию ввел английский кибернетик Д. Маккей. Когда мы
говорим о высоком уровне организации кристалла, имеется в виду, что
форма его структуры - положение его атомов - демонстрирует высокую
согласованность с некоторой формулой. Когда же мы говорим об
организованности телефонной сети или человеческой нервной системы, мы
ссылаемся не на форму, а на функцию системы (см. (41, р. 37)].
Для того чтобы и нам несколько упорядочить терминологию, обратимся
к основам кибернетической традиции. Основной тезис классической кибер
нетики состоял в том, что управление как в машинах, так и в живых орга-'
низмах осуществляется единым образом - по принципу обратной связи.
Обратная связь предусматривает наличие у системы определенной цели и
регулярную сверку промежуточных, текущих состояний (выходов) систе128
мы с этой целью для корректировки поведения. В технике этот принцип
известен давно, кибернетика же предложила такой способ описания и для
поведения живых организмов. Стали создаваться различные механизмы,
моделирующие те или иные аспекты поведения человека или животных.
Системы, цель которых связывалась с адаптацией к окружающей среде,
стали называть "адаптивными". Для создания искусственной адаптивной
системы существовало два способа: сконструировать систему сразу в окон
чательном виде или построить начальный вариант, снабдив его возмож
ностями развития адаптивных свойств. В последнем случае систему
называли "обучающейся". Обучение происходило либо с внешним "учи
телем", либо самостоятельно, за счет обратной связи ("самообучение").
В соответствии с кибернетическим принципом "черного ящика" все эти
характеристики относились исключительно к поведению (внешним про
явлениям) системы. Улучшение поведения (достижение адаптивности)
понималось в кибернетике как переход от плохой организации системы к
хорошей, и этот процесс стали называть "самоорганизачией".
Один из возможных критериев адаптации - устойчивость системы отно
сительно некоторого состояния равновесия. Этот принцип был положен
Эшби в основу специального устройства - гомеостата 1см. (26)], идея
которого возникла в 1948 г. Понятие гомеостазиса, введенное амери
канским физиологом У.Кенноном [см. (30)] и описывающее работу
вегетативной нервной системы как удержание значений некоторых
существенных переменных внутри физиологически допустимых границ,
Эшби распространил на высшую нервную деятельность. Он предположил,
что гомеостазис является основным механизмом работы мозга; его
моделью на техническом уровне и был призван стать гомеостат.
Гомеостат как раз осуществляет самоорганизацию второго типа по
классификации Эшби. К этой группе относится любая самообучающаяся
машина. Дж. Хоукинс в своей обзорной статье [см. (23)) использовал
понятия "обучение" и "самоорганизация" как синонимы.
С другой стороны, параллельно с кибернетическими идеями в 4&-50-e
годы разрабатывалась нейрофизиологическая модель мозга в виде спе
циально организованной нейронной сети. В динамике эта модель пред
ставляла собой процесс перехода сети из неупорядоченного состояния в
упорядоченное, "связанное" состояние. Модели такого рода тоже стали
называть "самоорганизующимися системами". Это и были те "самосвязующиеся"
системы, которые Эшби в своей классификации- отнес к
первому типу.
Особенность кибернетического подхода, как мы уже отмечали, заклю
чалась в том, что исследовались лишь системы, для которых определено
понятие цели, необходимое для построения любой кибернетической
модели. Д. Маккей, помимо различения кибернетических самоорганизующихся
систем по критерию формы или функции, ввел еще разделение
на системы с целью, задаваемой извне (искусственные системы, например,
самооптимизирующийся контролер процесса), и системы, где цель
вырабатывается независимо (живые организмы). Между ними, отмечал
Маккей, пролегает континуум, где находится большинство человеческих и
искусственных ситуаций [см. (41, р. 38)].
9. Концепция самоорганизации... 129
Сошлемся на перечень, данный В.В. Чавчаниязе: "К естественным
самоорганизующимся системам и явлениям можно отнести: клетки и их
ассоциации; нервные клетки; единство нервных и сенсорных клеток;
нейронные системы; мозг; мозг в единстве с организмом; мозг и язык
(вместе с социальным носителем); поведение животных в течение
жизненного цикла; поведение ассоциаций животных; поведение челове
ка и человеческих групп; поведение ассоциаций в заданных средах:
поведение социальных групп и систем; экономические системы; большие
системы; науку; научные знания; язык науки; социальные и экономические
отношения племен, народов, наций, организаций, классов, государств;
поведение человека, человеческих групп и человечества в целом в данной
природной, социальной среде и т.д." [25, с. 32]. Кибернетика не исследо
вала процессы самоорганизации в неживой природе, ставшие предметом
синергетики, где телеологические модели исключены.
Другая особенность кибернетического подхода к проблеме самоорга
низации была связана с двойственностью любого кибернетического
исследования. Кибернетическая система, будучи моделью живого орга
низма, могла рассматриваться и как исследовательская модель для
биолога, изучающего организм, и как машина, построенная инженером по
бионическому принципу. Одна часть кибернетического научного сооб
щества преследовала одну цель, другая - иную, но сами по себе иссле
дования допускали двоякую интерпретацию. М.К. Повито подчеркивает
различие целей: "Физиологи, эмбриологи, нейрофизиологи и представители
других биологических наук стараются понять свойства самоорганизации
биологических систем, математики же, инженеры и физики со своей
стороны пытаются сконструировать искусственные системы, которые
обнаруживали бы самоорганизующиеся свойства" [8, с. 12]. А Ст. Бир
предлагает рассуждать "так, как если бы не существовало разницы меАду
любыми реализациями мозга - в действительности, в математической
модели, в кибернетических машинах и т.д. И действительно, это не имеет
значения. Наша цель - получить отображение мозга на машину, и,
поскольку это сделано, они фактически совпадают" [2, с. 56-57]. Бир
строит общую теорию - живого мозга и его искусственных подобий.
Для нас важно отметить, что независимо от того, кем ощущает себя
кибернетик - биологом, инженером или создателем общей теории - его
исследование, его знание может войти в любой из этих разделов как его
составная часть.
Неудивительно поэтому, что кибернетики, занимающиеся конструиро
ванием искусственных самоорганизующихся систем, опирались на модели
функционирования человеческой нервной системы, предложенные биоло
гами Н. Рашевским jcm. (43)] и Д. Хеббом [см. (35)], и прежде все
го - на совместные исследования двух американских ученых - нейрофизиолог
а У. Маккалока и математика У. Питтса. В классической статье
1943 г. "Логическое исчисление идей, относящихся к нервной активности"
(см. (10)] они ввели формальную модель нервной клетки. Нейрон
представлялся им логическим элементом с несколькими возбуждающими и
тормозящими входами (аналогами синапсов) и одним выходом. Возбуж
дение выхода зависело от превышения входными возбуждениями некото130
роге порога и от наличия торможений. При этом авторы приняли следу
ющие "физические допущения":
"I. Активность нейрона удовлетворяет принципу "все или ничего".
2. Возбуждению нейрона в какой-либо момент времени должен пред
шествовать латентный период накопления возбуждений определенного
фиксированного числа синапсов. Это число не зависит от предыдущей
активности и от расположения синапсов на нейроне.
3. Единственным запаздыванием в нервной системе, имеющим значе
ние, является синаптическая задержка.
4. Активность какого-либо тормозящего синапса абсолютно исключает
возбуждение данного нейрона в рассматриваемый момент времени.
5. С течением времени структура сети не изменяется" [Там же, с. 366].
Нейроны соединялись в сети, описываемые на языке логики Карпам с
дополнительными обозначениями Рассела и Уайтхеда (именно у Рассела и
Карнапа учился логике У. Лягте). Далее показывалось, что "для всякого
логического выражения, удовлетворяющего некоторым условиям, можно
найти сеть, имеющую описываемое этим выражением поведение" (Там
же, с. 362]. Класс функций, реализуемых такой сетью, занимал проме
жуточное положение между простой булевой логикой и широким классом
функций, вычислимых машиной Тьюринга. Заметим, что модель Макк
алока-Питтса представляла собой фиксированную структуру для фикси
рованного (наперед заданного) поведения.
Модель породила, с одной стороны, неоправданный оптимизм инжене
ров, будто сеть формальных нейронов может реализовать "все, что может
быть полностью описано", а с другой - резкую критику нейрофизиологов,
установивших в 50-е годы, что нейрон имеет существенно более сложную
структуру. Ограниченность своей схемы хорошо понимал и сам Маккалок,
сказавший однажды: "Не хватайте меня за палец, а смотрите, куда я
указываю" [цит. по (39, р. 76)]. А указывал он на возможность уста
новления связи феноменологического и нейрофизиологического уровней
описания работы нервной системы. Именно так восприняли эту модель
кибернетики. Критикуя эту схему и отталкиваясь от нее с разных сторон,
инженеры и биологи развивали методы описания и конструирования
самоорганизующихся систем.
Развитие классического кибернетического подхода
Первым принципиальным пунктом критики схемы Маккалока-Питтса
был ее строго детерминированный характер. Помеха в работе одного
нейрона нарушала функционирование всей сети. Кроме того, громадное
количество нейронов головного мозга (порядка 10 млрд) делало прак
тически невозможным построение формальной модели целого мозга на
этих принципах. По выражению Ф. Розенблатта на симпозиуме 1961 г.,
такая модель была бы "переопределена". Он заявил: "Мне кажется, что
требовать точной логической структуры нервной сети для предсказания ее
поведения равносильно тому, чтобы требовать знания точного положения
и скорости каждой молекулы находящегося в сосуде газа для предсказания
его температуры" [17, с. 471]. Сам Маккалок, присутствовавший на сим
позиуме, при обсуждении сходной ситуации указал, что это было бы
похоже на поиски, в какой из ламп радиоприемника находится голос певца.
К тому времени Маккалок уже использовал вероятностный подход к
нейронным сетям.
При определенной температуре газа его частицы могут иметь самые
различные положения и скорости. Аналогично, множество разных логи
ческих уравнений может описывать нейронные сети, демонстрирующие
одинаковые статистические характеристики. Поэтому именно статис
тические правила Розенблатт считал наиболее подходящими для описания
важнейших аспектов работы мозга или подобной ему системы [см. (16,
с. 71)]. Впервые статистический принцип был применен в 1948 г. А. Шимбелом
и А. Рапопортом для анализа сетей с вероятностным распре
делением порогов, типов синапсов и источников связей (см. (47)].
Статистический подход был применен в модели "случайной сети", в
которой нейроны соединялись произвольно случайным образом. Эта
модель опиралась на нейрофизиологическую гипотезу (своеобразный
аналог идеи "tabula rasa", "чистой доски"), утверждавшую, что нервные
клетки мозга вначале практически неотличимы друг от друга и лишь
благодаря опыту и ощущениям организуются в целенаправленное пове
дение. Переход нейронной сети из исходного случайного, неупоря
доченного состояния в упорядоченное стали называть самоорганизацией, а
системы, построенные по этому принципу, - самоорганизующимися.
Впервые систему, реализующую такое понимание самоорганизации,
разработали, как мы уже упоминали в самом начале, Б. Фэрли и У. Кларк
1см. (31, 32)]. Случайная сеть нейроноподобных элементов (смоде
лированная на ЭВМ, а не воссозданная физически) была ими разделена
произвольно на две части - входную и выходную. Выходная часть
делилась на две подгруппы, и общий выход системы (положительный или
отрицательный) определялся как разность числа возбужденных элементов
в этих двух подгруппах. Входная часть также состояла из двух подгрупп,
обозначавших два различных входных образа. Подача одного из этих
образов на вход системы (т.е. возбуждение соответствующей входной
группы) вызывала возбуждение некоторых выходных элементов и
порождала определенное значение выхода. Цель состояла в том, чтобы
заставить систему реагировать на один входной образ положительным
выходом, а на другой - отрицательным. Достигалось это включением в
систему автоматического модификатора связей между элементами. Эти
связи не были фиксированными, как в исходной модели МаккалокаПиттс
а, а снабжались весами. Если после воздействия входного образа
выход оказывался правильным, то веса всех связей, участвовавших в
принятии такого "решения", увеличивались, и наоборот. После продол
жительной серии попеременного предъявления двух входных образов
обнаруживались "благоприятные результаты" [21, с. 22]. "Таким обра
зом, - делает вывод Фэрли, - система сама себя организует для того,
чтобы различать два отличающихся друг от друга входных образа" ртам
же, с. 23].
Среди искусственных самоорганизующихся систем наибольшую извест132
Насть приобрел "персептрон", предложенный Ф. Розенблаттом в 1958 г.
1см. (45)] и позднее активно им развивавшийся 1см. (16, 17, 18)].
Персептрон был реализован "в металле" и предназначался для
распознавания реальных зрительных образов, в частности печатных букв.
Так же, как и в системе Фэрли-Кларка, основу персептрона составляла
сеть нейроноподобных элементов, но делилась она на этот раз на три
группы. Первую группу составляли 400 "сенсорных" элементов, соединен
ных с фотоэлементами, расположенными на квадратном (20 на 20) поле,
куда поступало изображение буквы. Сенсорный элемент возбуждался в
зависимости от того, был ли засвечен соответствующий участок поля.
Далее сенсорные элементы соединялись случайным, но фиксированным
образом с элементами второй группы - "ассоциативными", которые
возбуждались аналогично нейронам в модели Маккалока-Питтса. Затем
выходы ассоциативных элементов через связи с переменными весами
(вначале установленными произвольно) подключались ко входам элемен
тов третьей группы - "реагирующих". Каждой букве соответствовал
"свой" реагирующий элемент, значение выхода которого при предъяв
лении этой буквы должно было превышать значения выходов других
реагирующих элементов. Роль модификатора связей в персептроне играла
"система управления поощрением", которая сравнивала стимул с реакцией
системы и изменяла соответствующим образом веса "полезных" и "вред
ных" связей.
Розенбл*тт считал персептрон моделью зрительного восприятия и
строго увязывал группы искусственных нейронов с определенными
отделами коры головного мозга. Он подчеркивал: "По мнению автора,
программа по исследованию персептрона связана главным образом не с
изобретением устройств, обладающих "искусственным интеллектом
...Закладка в соц.сетях