Реализация автономных адаптивных систем управления на базе нейронных сетей
Реализация автономных адаптивных систем управления на базе нейронных сетей
Московский ордена Трудового Красного Знамени
Физико-Технический Институт
Факультет Управления и Прикладной Математики
Кафедра Системного Программирования
Нейросетевая реализация системы
автономного адаптивного управления
Дипломная работа студента 275 группы
Винокурова Алексея Николаевича
Научный руководитель:
д. ф.-м. н. Жданов Александр Аркадиевич
Работа выполнена в
Институте Системного Программирования РАН
Москва 1998
Сокращения и обозначения.
1. Введение.
1.1. Введение и задачи работы.
1.2. Формализация нейронных сетей.
1.3. Краткое описание метода автономного адаптивного управления.
1.4. Основные понятия и обозначения.
1.5. Алгебра образов.
2. Моделирование среды.
3. Аппарат ФРО.
3.1. Биологический нейрон.
3.2. Формальная модель нейрона.
3.3. Задача построения ФРО.
23 Распознавание пространственно-временных образов.
4. База знаний.
5. Система построения и исследования нейронных сетей (СПИНС).
5.1. Актуальность системы.
5.2. Общая коцепция системы.
5.3. Конструкторы сетей. Библиотеки шаблонов.
27 Организация вычислений в сети.
28 Анализаторы работы сети.
29 Реализация блока оценки состояния.
30 Реализация модели среды.
31 Пример работы программы.
32 Перспективы развития системы.
Заключение.
Благодарности.
Литература.
Сокращения и обозначения.
Принятые сокращения
ААУ – автономное адаптивное управление
БД – блок датчиков
БЗ – база знаний
БОС - блок оценки состояния
БПР – блок принятия решений
ГИП – графический интерфейс пользователя (GUI)
ИО – исполнительный орган
НРС – недетерминированный автомат Рабина-Скотта
НС – нейронная сеть
МНРС – модифицированный недетерминированный автомат Рабина-Скотта
ОУ – объект управления
ПВО – пространственнно-временной образ
СВ - случайная величина
СПИНС – система построения и исследования нейронных сетей
УС – управляющая система
ФР – функция распределения
ФРО – аппарат формирования и распознавания образов
Принятые обозначения
[pic]- множество неотрицательных целых чисел
[pic]- граф со множеством вершин V и множеством ребер N
[pic] - ребро, направленное из вершины i в вершину j
[pic]- взаимнооднозначное отображение множества X на множество Y
[pic] - множество конечных подмножеств множества X
R[a,b] – множество вещественных чисел на [a,b]
[pic]
BN - пространство двоичных векторов размерности N
[pic] - пустое слово из множества входных слов КА
0 – ложь в выражении трехзначной логики
1 – истина в выражении трехзначной логики
[pic] - неопределенность в выражении трехзначной логики
[pic] - [pic] есть подвектор (совокупность выбранных компонент) вектора
[pic]
[pic] - класс Y является потомком класса X
1. Введение.
1.1. Введение и задачи работы.
При современном уровне развития техники, когда даже бытовая техника
оснащается микропроцессорными устройствами, возникла потребность в
интеллектуальных адаптивных системах управления, способных
приспосабливаться к очень широкому диапазону внешних условий. Более того,
возникла потребность в универсальной технологии создания таких систем.
Научный опыт человечества свидетельствует о том, что в природе можно найти
великое множество ценных идей для науки и техники. Человеческий мозг
является самым удивительным и загадочным созданием природы. Способность
живых организмов, наделенных высшей нервной системой, приспосабливаться к
окружающей среде может служить призывом к подражанию природе или имитации
при создании технических систем.
Среди имитационных подходов выделяется класс нейросетевых методов.
Нейронные сети (НС) нашли широкое применение в областях искуственного
интеллекта, в основном связанных с распознаванием образов и с теорией
управления. Одним из основных принципов нейросетевого подхода является
принцип коннективизма. Суть его выражается в том, что рассматриваются очень
простые однотипные объекты, соединенные в большую и сложную сеть. Таким
образом, НС является в первую очередь графом, с которым можно связать
совокупность образов, представленных как численные значения,
ассоциированные с вершинами графа, алгоритм для преобразования этих
численных значений посредством передачи данных между соседними вершинами и
простых операций над ними. Современный уровень развития микроэлектроники
позволяет создавать нейрочипы, состоящие из очень большого числа простых
элементов, способных выполнять только арифметические операции. Таким
образом, нейросетевые методы поддерживается аппаратно.
Математически НС можно рассматривать как класс методов статистического
моделирования, который в свою очередь можно разделить на три класса: оценка
плотности вероятности, классификация и регрессия [NN]. В частности, в [NN]
показано, что с помощью сетей обратного распространения и обобщенного [pic]-
правила решается задача оценки плотности вероятности методом смешивания
гауссовских распределений.
В отделе имитационных систем Института Системного Программирования РАН
разработан метод автономного адаптивного управления (ААУ). Предполагается,
что система ААУ может быть полностью реализована на нейронной сети [Диссер,
Жданов1-9]. В отличии от традиционного использования НС для решения только
задач распознавания и формирования образов, в методе ААУ согласованно
решаются задачи
. распознавания и формирования образов
. получения и хранения знаний (эмпирически найденных закономерных
связей образов и воздействий на объект управления)
. оценки качественных характеристик образов
. принятия решений (выбора воздействий).
Особенностями метода ААУ являются:
. Избыточность нейронов в сети, необходимая для адаптации системы
управления (УС) к изменяющимся условиям существования объекта управления
(ОУ). Вследствие этого для практической реализации УС необходимо
создание больших НС (для сравнения человеческий мозг содержит ~1011
нейронов).
. НС состоит из специфичных нейронов, являющимися более близкими аналогами
биологического нейрона и приспособленными для решения задач ААУ (раздел
3.2)
. Нейроны в сети соединяются специальным образом, также для решения задач
ААУ.
Особенности метода ААУ делают непригодными или малопригодными
существующие системы САПР и системы моделирования традиционных НС
(например, BrainMaker) для создания прототипов УС ААУ. Ввиду этого
обстоятельства задачами дипломной работы были:
1. Разработка инструмента СПИНС для моделирования и исследования
нейросетевых реализаций прототипов УС ААУ.
2. Разработка общей схемы нейросетевой реализации прототипов УС ААУ.
1.2. Формальная модель нейрона и нейросети.
Понятие схемы было введено для формализации вычислений на параллельных
компьютерах [Итоги91]. Мы используем это понятие для формального описания
нейронных сетей, т.к. оно подходит для этих целей почти без изменений.
Одним из следствий такой близости схем и НС является возможность хорошего
распараллеливания вычислений в моделях НС.
Определение 1.2.1. Назовем схемой c ориентированный ациклический ортграф
(допустимы ребра с общими вершинами), вершинами которого являются
параметризованные операции, т.е. операции, зависящие от некоторого
параметра t. Аргументами операции являются все входные вершины или
входы, т.е. такие вершины, для которых есть ребра (входные ребра),
исходящие из них и направленные к данной вершине, [pic]- входная
арность i-ой вершины, т.е. число входных вершин, [pic]-выходная
арность i-ой вершины, т.е. число выходных вершин или выходов.
Определим размер схемы s(c) как общее число вершин схемы, глубину
схемы d(c) как максимальную длину ориентированного пути в графе c.
Порядок вершины определяется рекурсивно: для вершин у которых нет
входов, принадлежащих сети (истоки сети), порядок равен 0, для
остальных порядок есть максимум порядка входов плюс единица. Входами
сети будем называть некоторое подмножество множества истоков сети.
Выходами сети будем считать просто некоторое множество вершин сети.
Определение1.2.2. Здесь и далее под нейронной сетью будем понимать схему.
По сути схема является совокупностью композиций некоторых
параметризованных операций. Глубина схемы есть максимальный уровень
вложенности композиций. В методологии НС важно, что эти операции являются
вычислительно простыми, наподобие взвешенной суммы или булевых конъюнкции и
дизъюнкции, при этом выбирается большое количество аргументов и композиций.
В этом суть коннективизма. Параметр t является по сути временным
параметром. Заметим, что здесь и далее полагаем время дискретным, хотя для
формализации НС это не принципиально. Перенумеровав вершины схемы, можно
записать общий вид параметризованной операции:
[pic],
где [pic](t) - i-ая параметризованная операция, [pic]- входные вершины,
[pic]- синаптическая задержка на ребре [pic]. Конкретный вид функции [pic]
для предлагаемой модели нейрона будет представлен в разделе «Аппарат ФРО».
Пример 1.2.1. В качестве операции-вершины может быть любая операция
трехзначной логики (разд. 1.5).
Определение1.2.3. Выходами подграфа G(V, N), где V - множество ребер, N –
множество вершин. сети будем называть все ребра [pic], входами все
ребра [pic].
Определение1.2.4. Определим блок как связный подграф сети с одним выходом.
Определение1.2.5. Назовем блок [pic] шаблоном некоторого блока [pic] если
между этими блоками существует изоморфное отображение, т.е. такая пара
отображений [pic]
Определение1.2.6. Разбиением сети на блоки с шаблоном B будем называть
совокупность непересекающихся блоков [pic]такую, что для всех этих
блоков B является шаблоном и объединение всех блоков и межблоковых
ребер (имеется ввиду два разных объединения: множеств вершин и
множеств ребер) есть вся сеть.
Определение1.3.7. Совокупность рекурсивных разбиений сети [pic], где [pic]
есть разбиение шаблона [pic] будем называть конструкцией сети, а
множество [pic] шаблонами конструктора.
Определение1.2.8. Таким образом, под формальной моделью нейрона будем
понимать шаблон [pic] разбиения сети [pic], у которого выход есть
булева операция. Под нейроном будем понимать собственно блок.
Например, на рис.1.2.1 представлена формальная модель перспептрона,
где все блоки [pic] имеют один шаблон МакКаллока-Питтса [Маккалок].
Вообще говоря, состояние обученности нейрона для каждой формальной
модели определяется по своему и, неформально выражаясь, это состояние, в
котором считается, что нейрон уже «обучен» для решения своей задачи
классификации. Отметим, что процесс обучения необратим.
Определение 1.2.9. Будем говорить, что сетью распознан образ i, если после
предъявления сети некоторого входного сигнала на выходе i-ого нейрона
появляется 1.
Распознавание образа есть по сути положительный ответ в решении задачи
классификации для данного нейрона.
[pic]
Рис.1.2.1.
1.3. Краткое описание метода автономного адаптивного управления.
Метод ААУ подробно описан в работах [Жданов3-9], поэтому представим
только основные его стороны. Будем называть управляющей системой (УС)
систему управления, имитирующую нервную систему в соответствии с
методологией ААУ. Под объектом управления (ОУ) будем понимать организм,
который несет в себе нервную систему, другими словами, ОУ - это объект,
который должен управляться посредством УС, расположенной внутри ОУ и
взаимодействующей со своим окружением посредством блока датчиков (БД) и
исполнительных органов (ИО).
[pic]
Рис. 1.3.1.
На рис. 1.3.1 представлена система, под которой будем понимать среду,
в которую вложен ОУ, в свою очередь содержащий в себе УС. Как видно из
рисунка, можно утверждать, что УС управляет не только ОУ, но всей системой.
Под средой в системе можно понимать разные объединения объектов. Будем
называть средой W совокупность объектов, лежащих вне УС; средой S -
совокупность объектов, лежащих вне ОУ; средой U - всю систему.
Блок датчиков поставляет УС входную информацию в виде двоичного
вектора. Этот блок необходим в реальных системах для сопряжения среды и УС,
поэтому при моделировании УС на ЭВМ не использовался и мы не акцентируем
внимание на нем в данной работе.
Работу блока формирования и распознавания образов (ФРО) можно
представить следующим способом (подробное описание см. в работах [Жданов3,
Жданов8]). В блоке ФРО на основании априорной информации о возможных
функциональных свойствах среды заданы некоторые объекты, назовем их
нейронами (например, нейроны специального вида, описанные в работе
[Жданов8]), на которые отображаются некоторые классы пространственно-
временных явлений, которые потенциально могут существовать в системе.
Отображение задается топологией сети. В классе, отображаемом на нейрон,
выделяется подкласс, который может восприниматься данным нейроном. Каждый
нейрон может статистически анализировать воспринимаемый им подкласс.
Накапливая статистическую информацию о воспринимаемом подклассе, нейрон
может принять решение, является ли этот подкласс случайным или неслучайным
явлением в системе. Если какой-либо нейрон принимает решение, что
отображаемый на него подкласс является неслучайным событием, то он
переходит в некоторое отличное от исходного (обученное( состояние. Если
нейрон обучен, то будем говорить также, что сформирован образ, этот образ
идентифицируется номером данного нейрона. Подкласс явлений, воспринимаемый
нейроном, и вызвавший его обучение, то есть пространственно-временные
явления, статистически достоверно существующие в системе, называется
прообразом данного образа. Сформированный образ может быть распознан блоком
ФРО, когда прообраз данного образа наблюдается БД. Блок ФРО указывает,
какие из сформированных образов распознаны в текущий момент. Одновременно с
этим распознанные образы участвуют в формировании образов более высоких
порядков, то есть имеет место агрегирование и абстрагирование образов.
Блок формирование базы знаний [Жданов4-6] (БЗ) предназначен для
автоматического представления эмпирически найденных УС знаний о
функциональных свойствах системы. Элементарной конструкцией базы знаний
(БЗ) в методе ААУ является статистически достоверное сведение о том, как
определенное действие Yj влияет на прообраз определенного сформированного
образа. Действием Yj названо подмножество множества допустимых
воздействий, элементы которого абсолютно идентичны для УС по их влиянию на
сформированные образы. Непустое сведение может иметь одно из двух
значений: либо действие Yj влечет распознавание образа Oi , либо действие
Yj влечет вытеснение образа Oi. При помощи БЗ можно видеть, как конкретное
действие влияет на всю совокупность сформированных образов.
Блок оценки состояния [Жданов7] (БОС) вырабатывает интегральную оценку
качества состояния ОУ St. Оценка St используется для расчета оценки (веса)
pi каждого из вновь сформированных образов некоторым статистическим
способом. В свою очередь, St функционально зависит от оценок pi
распознанных образов. Имеется некоторое множество изначально сформированных
и оцененных образов. Оценка St используется также для расчета темпа
принятия решений.
Блок выбор действия [Жданов4-6] или, в дальнейшем, блок принятия
решений (БПР) реализует процедуру принятия решения, основанную на анализе
текущей ситуации, целевых функций, содержимого БЗ, а также оценки текущего
значения оценки St. Фактическая информация о текущей ситуации представлена
множеством образов, распознанных в текущий момент блоком ФРО, а информация
о качестве текущего состояния представлена оценкой St. Множество
распознанных образов определяет в БЗ тот ее раздел, который адекватен
текущей ситуации (те знания, которые истинны в текущих условиях). В
соответствии с целевой функцией, предполагающей стремление УС к улучшению
качества состояния ОУ, УС выбирает по БЗ то действие, которое имеет
максимальную сумму оценок вызываемых и вытесняемых образов. Из множества
выходных воздействий, соответствующего выбранному действию Yj, конкретное
выходное воздействие выбирается случайным способом, что соответствует
второй целевой функции, предусматривающей стремление к получению новых
знаний.
Блок определение времени принятия решения определяет глубину просмотра
БЗ в зависимости от текущей оценки St. Чем выше значение St, тем больше
образов (в порядке убывания модуля их веса) может учесть УС при принятии
решения, тем меньше темп принятия решений. При моделировании этот блок не
использовался и в данной работе рассматриваться не будет.
В УС могут быть средства для априорного анализа последствий
альтернативных выбираемых действий на несколько шагов вперед.
Таков в самых общих чертах алгоритм управления, реализуемый УС в
методе ААУ. Основные свойства процесса управления состоят в том, что УС
автоматически накапливает эмпирические знания о свойствах предъявленного ей
объекта управления и принимает решения, опираясь на накопленные знания.
Качество управления растет по мере увеличения объема накопленных знаний.
Заметим также, что управление состоит не в том, что УС реагирует на входную
информацию (в определенном смысле - отрицательная обратная связь), а в том,
что УС постоянно активно ищет возможный в текущих условиях способ улучшить
состояние ОУ (положительная обратная связь). Тем самым УС ААУ обладает
внутренней активностью.
При создании приложений может быть целесообразным использование УС ААУ
для управления только в тех областях пространства признаков, в которых
ранее используемые методы неэффективны. Другими словами, полезно разделить
признаковое пространство на две области: на область, для которой имеется
априорная информация о свойствах ОУ, и в которой можно применить подходящую
детерминированную систему управления, и на область, в которой нет
априорной информации о свойствах ОУ, где требуется адаптация в реальном
времени управления, в этой области целесообразно управление по методу ААУ.
1.4. Основные понятия и обозначения.
Каждый вход и выход блока среды U представляется в математической
модели, вообще говоря, случайным вектором, а совокупность случайных
векторов, параметризованных временем [pic], образуют процесс. Кроме того,
выделим вторую категорию процессов, в которую входят процессы,
сформированные параметризованными СВ - выходами внутренних элементов блоков
УС. Например, для ФРО и, вообще, всех блоков, состоящих из нейронов, это
выходы всех нейронов. В полной математической модели среды U, процесс,
представляющий выходы всех нейронов УС и выходы внутренних блоков среды W
, назовем процессом среды U.
В дальнейшем мы будем пользоваться следующими обозначениями:
T – конечный временной интервал жизни системы;
[pic]- параметр времени;
[pic] - начальный момент времени работы УС;
[pic] – входной процесс, входной процесс для ФРО, а значит и для УС;
[pic] – i – ая компонента [pic];
[pic] - реализация входного процесса, или входной фильм, определенный на
интервале времени [pic];
[pic] – i – ая компонента [pic];
[pic] – процесс среды, выход блока среды W;
[pic] – i – ая компонента [pic];
[pic] – процесс ФРО, совокупность выходов всех нейронов блока ФРО на
интервале [pic];
[pic] – i - ая компонента [pic];
[pic] – процесс управляющих воздействий на среду [pic] со стороны УС, где
Y – множество допустимых воздействий на среду со стороны УС;
F – множество образов аппарата ФРО.
1.5. Алгебра образов.
В качестве алгебраических операций над образами мы будем использовать
операции трехзначной логики, которая является расширением обычной логики с
двумя значениями: истина и ложь, обозначаемые далее как 1 и 0
соответственно, и имеет третье значение: неопределенность или [pic]. Здесь
приведены таблицы для операций трехзначной логики. Первый столбец содержит
значения первого аргумента, первая строка – второго.
|[pic] |1 |0 |[pic] |
|1 |1 |0 |[pic] |
|0 |0 |0 |0 |
|[pic] |[pic] |[pic] |[pic] |
Таблица 1.5.1
|[pic] |1 |0 |[pic] |
|1 |1 |1 |1 |
|0 |1 |0 |[pic] |
|[pic] |[pic] |[pic] |[pic] |
Таблица 1.5.2
|[pic] |1 |0 |[pic] |
|1 |1 |0 |1 |
|0 |1 |1 |1 |
|[pic] |[pic] |[pic] |[pic] |
Таблица 1.5.3
Отрицание [pic] для неопределенности дает неопределенность, для остальных
значений – то же самое, что и в двузначной логике. Для удобства мы
полагаем, что результат операции в момент [pic] есть неопределенность по
определению.
2. Моделирование среды.
Для экспериментальной проверки метода автономного адаптивного
управления необходимо создать математическую модель среды, достаточную для
имитации реакции и поведения реальной среды на некотором уровне, приемлемом
для данной управляющей системы. Но проверка является не единственной
задачей, решаемой с помощью модели среды. Во-первых, если на начальном
этапе в базе знаний УС нет знаний, ее необходимо наполнить начальными
данными. Возможны случаи, когда получение исходных знаний невозможно во
время реальной работы УС, поскольку оно происходит методом проб и ошибок и
существует реальная угроза гибели всей системы. Поэтому начальное обучение
в таких случаях необходимо проводить «на стенде», т.е. с моделью среды.
Естественно, чем ближе модель к свойствам реальной среды, тем лучше
обучится УС и тем выше вероятность выживания системы. Моделировать среду
можно множеством способов. Например, сделать макет объекта управления,
поместить его в условия, близкие к тем, где он предназначен работать и дать
ему возможность обучаться, пока у экспериментаторов не будет уверенности в
живучести аппарата и в способности к адаптации в том диапазоне внешних
условий, где он предназначен работать. Но на пути создания реальной
действующей системы возможно несколько промежуточных этапов. Представим,
что система создается «с нуля» и известна только некоторая априорная
информация о среде и, возможно, какие-то представления о законах
управления. Создавать сразу действующий макет дорого, поскольку на данном
этапе даже не известно, какие образы УС должна уметь распознавать, и,
возможно, придется делать несколько эспериментальных прототипов. Для
исследования данного вопроса предлагается смоделировать среду, например, с
помощью ЭВМ.
Как одну из моделей среды для исследований свойств ААУ мы предлагаем
взять конечный автомат [КА]. КА является широко известным, хорошо
изученным, понятным и удобным при моделировании среды объектом по следующим
соображениям: 1) различные состояния среды естественным образом
отображаются в состояния КА; 2) переходы из одного состояния среды в другое
под воздействием УС и других объектов естественным образом отображаются в
переходы КА между состояниями при чтении входного слова. Отметим, что среди
известных и распространенных КА наиболее подходящими для модели являются
автоматы Мура и недетерминированные автоматы Рабина-Скотта или НРС-
автоматы. Правда, модели, основанные на первых, нуждаются в дополнительном
введении стохастических источников, а НРС-автоматы нуждаются в модификации,
поскольку реальные среды являются недетерминированными объектами. Более
того, недетерминированность модели среды необходима для обучения УС. В
самом деле, если бы реакция среды была полностью детерминированной и
зависела только от воздействий на нее УС, то УС, найдя первый закон
управления, использовала бы только его при выборе управляющих воздействий,
так как по критериям системы управления лучше использовать хоть какой-
нибудь закон управления и получить относительно гарантированный результат,
чем продолжать поиски методом проб и ошибок. Получился бы замкнутый
порочный круг: система воздействует на среду только одним способом, среда
детерминированно реагирует на это воздействие, УС видит только одну реакцию
(которая может быть не самой лучшей) и пытается вызвать только эту реакцию.
Избежать таких «зацикливаний» можно посредством моделирования
недетеминированной реакции среды.
Приведем определение автоматов Мура [КА] и введем модифицированные НРС-
автоматы.
Определение 2.1. (Конечный) автомат Мура есть пятерка А = (Z, X, Y, f, h).
Здесь Z – множество состояний, X – множество входов, Y – множество
выходов, f – функция переходов, [pic] и h –функция выходов, [pic] -
сюръективное отображение.
Автомат работает по следующему принципу. Если КА находится в некотором
состоянии [pic], то выход автомата определяется функцией выхода. Выход
автомата интерпретируется в данном случае как реакция среды, которая,
возможно, с некоторыми преобразованиями в блоке датчиков может быть подана
на вход аппарата формирования и распознавания образов как двоичный вектор.
В каждый момент времени автомат читает входное слово, которое
интерпретируется как суммарное воздействие со стороны УС и других внешних
объектов. Множество входов может быть шире чем множество допустимых
воздействий на среду со стороны УС и включать в себя слова или команды,
которые могут подаваться со стохастических источников, находящихся внутри
среды. По прочитанному входному слову и функции переходов определяется
состояние в следующий момент времени.
Определение 2.2. (Конечный) модифицированный недетерминированный автомат
Рабина-Скотта (МНРС) есть семерка А = (Z, X, T, S, F, h, p). Здесь Z и
X – конечные множества (состояний и входов соответственно; X называют
также входным алфавитом автомата А); [pic] (множества начальных и
финальных состояний соответственно); [pic], где [pic], [pic] (иначе
говоря T – многозначное отображение [pic] с конечной областью
определения); h – то же, что и для автомата Мура; p – функция
вероятности переходов, [pic], причем
[pic].
(2.1)
Отметим, что мы рассматриваем только неалфавитные МНРС, т.е. КА, у
которых нет переходов для пустого слова [pic]: [pic], а, следовательно, нет
и спонтанных переходов. Отличительной особенностью МНРС является
неоднозначность переходов или возможность соответствия одной и той же паре
состояние - входное слово нескольких переходов и приписанной каждому
переходу вероятности. Условие (2.1) означает, что сумма вероятностей всех
переходов из любого состояния есть 1.
Отличие принципа действия МНРС от автомата Мура состоит в том, что,
когда автомат находится в некотором состоянии и прочел входное слово, то
реализуется один из возможных из данного состояния и при данном входном
слове переход, при этом вероятность реализации перехода определяется
функцией p.
Приведенные две модели среды с двумя разными КА не являются
эквивалентными и задают разные модели поведения. Очевидно, что любая модель
с автоматом Мура может быть смоделирована моделью с МНРС, причем обратное
утверждение для любой модели неверно. Автомат Мура проще в реализации и
исследованиях, а с помощью МНРС можно построить более точную модель среды.
3. Аппарат формирования и распознавания образов.
3.1. Биологический нейрон.
На рис. 3.1.1, взятом из [Turchin] представлен в упрощенном виде
биологический нейрон. Схематично его можно разделить на три части: тело
клетки, содержащее ядро и клеточную протоплазму; дендриты – древовидные
отростки, служащие входами нейрона; аксон, или нервное волокно, -
единственный выход нейрона, представляющий собой длинный цилиндрический
отросток, ветвящийся на конце. Для описания формальной модели нейрона
выделим следующие факты:
Рис. 3.1.1
В любой момент возможны лишь два состояния волокна: наличие импульса и его
отсутствие, так называемый закон «все или ничего».
Передача выходного сигнала с аксона предыдущего нейрона на дендриты или
прямо на тело следующего нейрона осуществляется в специальных образованиях
– синапсах. Входные сигналы суммируются с синаптическими задержками и в
зависимости от суммарного потенциала генерируется либо нет выходной импульс
– спайк.
3.2. Формальная модель нейрона.
Впервые формальная логическая модель нейрона была введена Маккалоком и
Питтсом в 1948 году [Маккалок] и с тех пор было предложено огромное
количество моделей. Но все они предназначены для решения в основном задач
распознавания и классификации образов. Можно указать целый ряд основных
отличий предлагаемой в данной работе модели и уже существующих. Во-первых,
в классических моделях всегда присутствует «учитель» или «супервизор»,
подстраивающий параметры сети по определенному алгоритму, предлагаемый же
нейрон должен подстраиваться «сам» в зависимости от «увиденной» им
последовательности входных векторов. Формально говоря, при работе нейрона
должна использоваться только информация с его входов. Во-вторых, в
предложенной модели нет вещественных весов и взвешенной суммации по этим
весам, что является большим плюсом при создании нейрочипа и модельных
вычислениях, поскольку целочисленная арифметика выполняется всегда быстрее,
чем рациональная и проще в реализации. Главное же отличие предлагаемой
модели состоит в цели применения. C помощью нее решаются все задачи
управляющей системы: формирование и распознавание образов (ФРО),
распознавание и запоминание закономерностей (БЗ), анализ информации БЗ и
выбор действий (БПР), в отличии от классических моделей, где решается
только первая задача.
Важной задачей ФРО для автономных систем также является не только
распознавание образов, но и их хранение или запоминание. Это следует из
автономности системы, т.к. для неавтономных систем распознанные образы
могут храниться и использоваться вне системы. Вообще говоря, проблему
запоминания можно решить множеством способов. Например, один из известных
способов – организовать кольцо из нейронов, в котором сигнал мог бы
прецессировать до бесконечности или в течении некоторого времени в случае
затухания. В последнем случае система приобретает новое полезное свойство
«забывчивости», которое, как известно, присуще биологическим системам и
позволяет более рационально и экономно использовать ресурсы, т.к. ненужная
или малоиспользуемая информация просто «забывается». Эксперименты
проводились с формальной моделью без памяти, но очевидно, что она нужна.
Нами предлагается ввести так называемую синаптическую память, т.е.
способность запоминать входной сигнал в синаптическом блоке.
x1t D1 T1 y1 t
(1 (1 Rw
y2 t bwt+1
x2t D2 T2 ...
(2 (2
Owt+1
&
cwt+1
. . .
. . .
. . .
xmt Dm Tm ymt
(m (m
Рис. 3.2.1
В данной работе мы используем нейрон из [Жданов2], который модифицирован в
соответствии с [Братищев]. Мы приведем лишь краткое описание. На рис. 3.2.1
представлена блочная схема предлагаемой формальной модели нейрона. Входы
нейрона xit подаются на блоки задержки Di для задержки сигнала на время (i
, а затем на триггерные элементы Ti для удлинения сигнала на величину (i .
Данные элементы обеспечивают некоторую неопределенность момента поступления
входного сигнала по отношению к моменту генерации выходного спайка и
образуют таким образом синаптическую память, поскольку входной сигнал
запоминается в этих элементах на некоторое время.
С учетом задержек (i и (i получаем, что, если на выходе обученного нейрона
в момент t появился единичный сигнал, то единичные импульсы на входы
нейрона поступили в интервалы времени di = [ t - (i - (i ; t - (i -1].
Неопределенность моментов поступления входных импульсов будет тем меньше,
чем меньше задержки (i.
Пример временной диаграммы работы обученного нейрона с двумя входами и с
заданными задержками (i и (i иллюстрирует рис. 3.2.2. Вопросительными
знаками показаны неопределенности моментов прихода входных импульсов,
соответствующие интервалам di.
[pic][pic]
[pic][pic]
x1 ? ? ?
x2 ? ?
y1
y2
c1
1 2 3 4 5 6 7 8 9 10 11 12
t
Рис. 3.2.2.
Различное отношение и расположение задержек (i и (i во времени наделяет
нейрон возможностями формирования и распознавания образов следующих видов.
Если [pic] , то имеем пространственный образ. Например, образ некоторой
геометрической фигуры.
Если [pic], то имеем образ следования (важен порядок следования
образующих, допустима неопределенность в конкретных моментах прихода
импульсов). Примером может быть распознавание слов при чтении по буквам.
Если ( (i = 1, то имеем пространственно-временной образ (ПВО), в этом
случае однозначно определено, по каким входам и в какие моменты времени
приходили сигналы. Примером может быть распознавание музыкального тона
определенной высоты.
Элемент lw предназначен для набора статистики по данному пространственно-
временному образу. Значение lw=1 указывает на то, что данный нейрон обучен.
Задержки (i и (i заданы изначально, т.е. являются константными параметрами
нейрона. Если поступающая на данный нейрон последовательность сигналов
содержит закономерность, описываемую такими временными параметрами, то
нейрон сформирует образ такого пространственно-временного прообраза.
Очевидно, что необходимое число нейронов такого типа в сети будет тем
меньше, чем больше априорной информации о временных характеристиках
прообразов известно на стадии синтеза сети.
Приведем формализм нейрона.
Owt+1 = cwt+1 & Swt+1 ;
cwt+1 = bwt+1 & lwt+1 ;
bwt+1 = [pic]
yit = ( cwt & ait ;
ait = [pic];
где [pic][pic]= t( xit = 1 - момент импульса на входе xi ;
lw t = [pic];
Nw0 = 0;
Nwt = Nwt-1 + bwt ;
Rw(Nwt) - убывающая сигмоидальная функция.
3.3. Задача построения ФРО.
Для того, чтобы более правильно и экономно построить нейронную сеть
ФРО, необходимо понять смысл или «концепцию» [Turchin] формируемых образов,
т.е., более точно выражаясь, найти для данного образа множество обучающих
входных фильмов или множество всех таких реализаций входных процессов,
которые приводят к обучению данного нейрона или формированию данного
образа. Введем понятие обучающего входного фильма.
Определение 3.3.1. Всякий входной фильм [pic] назовем обучающим для нейрона
[pic], если [pic] - начальный момент времени работы системы и [pic] [pic],
Страницы: 1, 2
|