Рефераты

Нейрокомпьютерные системы

Тогда модифицированные весовые значения равны

Wmn = -5+10/[1 + ехр(-Wmn /5)].

Эта функция сильно уменьшает величину очень больших весов,

воздействие на малые веса значительно более слабое. Далее она

поддерживает симметрию, сохраняя небольшие различия между большими

весами. Экспериментально было показано, что эта функция выводит нейроны

из состояния насыщения без нарушения достигнутого в сети обучения. Не

было затрачено серьезных усилий для оптимизации используемой функции,

другие значения констант могут оказаться лучшими.

Экспериментальные результаты. Комбинированный алгоритм, использующий

обратное распространение и обучение Коши, применялся для обучения

нескольких больших сетей. Например, этим методом была успешно

обучена система, распознающая рукописные китайские иероглифы [6]. Все же

время обучения может оказаться большим (приблизительно 36 ч машинного

времени уходило на обучение). В другом эксперименте эта сеть

обучалась на задаче ИСКЛЮЧАЮЩЕЕ ИЛИ, которая была использована в

качестве теста для сравнения с другими алгоритмами. Для сходимости сети

в среднем требовалось около 76 предъявлений обучающего множества. В

качестве сравнения можно указать, что при использовании обратного

распространения в среднем требовалось около 245 предъявлений для решения

этой же задачи [5] и 4986 итераций при использовании обратного

распространения второго порядка. Ни одно из обучений не привело к

локальному минимуму, о которых сообщалось в [5]. Более того, ни одно из

160 обучений не обнаружило неожиданных патологий, сеть всегда

правильно обучалась. Эксперименты же с чистой машиной Коши

привели к значительно большим временам обучения. Например, при р=0,002

для обучения сети в среднем требовалось около 2284 предъявлений

обучающего множества.

Обсуждение

Комбинированная сеть, использующая обратное распространение и

обучение Коши, обучается значительно быстрее, чем каждый из

алгоритмов в отдельности, и относительно нечувствительна к величинам

коэффициентов. Сходимость к глобальному минимуму гарантируется алгоритмом

Коши, в сотнях экспериментов по обучению сеть ни разу не попадала в

ловушки локальных минимумов. Проблема сетевого паралича была решена с

помощью алгоритма селективного сжатия весов, который обеспечил

сходимость во всех предъявленных тестовых задачах без существенного

увеличения обучающего времени. Несмотря на такие обнадеживающие

результаты, метод еще не исследован до конца, особенно на больших

задачах. Значительно большая работа потребуется для определения его

достоинств и недостатков.

Глава 6 Сети Хопфилда

Сети, рассмотренные в предыдущих главах, не имели обратных связей,

т.е. связей, идущих от выходов сетей и их входам. Отсутствие обратной

связи гарантирует безусловную устойчивость сетей. Они не могут войти в

режим, когда выход беспрерывно блуждает от состояния к состоянию и не

пригоден к использованию. Но это весьма желательное свойство

достигается не бесплатно, сети без обратных связей обладают более

ограниченными возможностями по сравнению с сетями с обратными связями.

Так как сети с обратными связями имеют пути, передающие сигналы от

выходов к входам, то отклик таких сетей является динамическим, т.е.

после приложения нового входа вычисляется выход и, передаваясь по сети

обратной связи, модифицирует вход. Затем выход повторно вычисляется, и

процесс повторяется снова и снова. Для устойчивой сети последовательные

итерации приводят к все меньшим изменениям выхода, пока в конце

концов выход не становится постоянным. Для многих сетей процесс

никогда не заканчивается, такие сети называют неустойчивыми.

Неустойчивые сети обладают интересными свойствами и изучались в

качестве примера хаотических систем. Однако такой большой предмет, как

хаос, находится за пределами этой книги. Вместо этого мы сконцентрируем

внимание на устойчивых сетях, т.е. на тех, которые в конце концов

дают постоянный выход. Проблема устойчивости ставила в тупик

первых исследователей. Никто не был в состоянии предсказать, какие

из сетей будут устойчивыми, а какие будут находиться в постоянном

изменении. Более того, проблема представлялась столь трудной, что

многие исследователи были настроены пессимистически относительно

возможности ее решения. К счастью, в работе [2] была получена теорема,

описавшая подмножество сетей с обратными связями, выходы которых в

конце концов достигают устойчивого состояния. Это замечательное

достижение открыло дорогу дальнейшим исследованиям и сегодня многие

ученые занимаются исследованием сложного поведения и возможностей этих

систем. Дж. Хопфилд сделал важный вклад как в теорию, так и в

применение систем с обратными связями. Поэтому некоторые из

конфигураций известны как сети Хопфилда. Из обзора литературы видно,

что исследованием этих и сходных систем занимались многие. Например,

в работе [4] изучались общие свойства сетей, аналогичных многим,

рассмотренным здесь. Работы, цитируемые в списке литературы в конце

главы, не направлены на то, чтобы дать исчерпывающую библиографию по

системам с обратными связями. Скорее они являются лишь доступными

источниками, которые могут служить для объяснения, расширения и обобщения

содержимого этой книги.

КОНФИГУРАЦИИ СЕТЕЙ С ОБРАТНЫМИ СВЯЗЯМИ

На рис. 6.1 показана сеть с обратными связями, состоящая из двух

слоев. Способ представления несколько отличается от использованного в

работе Хопфилда и других, но эквивалентен им с функциональной точки

зрения, а также хорошо связан с сетями, рассмотренными в предыдущих

главах. Нулевой слой, как и на предыдущих рисунках, не выполняет

вычислительной функции, а лишь распределяет выходы сети обратно на

входы. Каждый нейрон первого слоя вычисляет взвешенную сумму своих

входов, давая сигнал NET, который затем с помощью нелинейной функции

F преобразуется в сигнал OUT. Эти операции сходны с нейронами других

сетей (см. гл.2).

Бинарные системы

В первой работе Хопфилда [6] функция F была просто пороговой

функцией. Выход такого нейрона равен единице, если взвешенная сумма

выходов с других нейронов больше порога Т., в противном случае она равна

нулю. Он вычисляется следующим образом:

[pic] (6.1)

[pic]

Состояние сети - это просто множество текущих значений сигналов

OUT от всех нейронов. В первоначальной сети Хопфилда состояние каждого

нейрона менялось в дискретные случайные моменты времени, в

последующей работе состояния нейронов могли меняться одновременно. Так

как выходом бинарного нейрона может быть только ноль или единица

(промежуточных уровней нет), то текущее состояние сети является двоичным

числом, каждый бит которого является сигналом OUT некоторого нейрона.

Функционирование сети легко визуализируется геометрически. На рис. 6.2 а

показан случай двух нейронов в выходном слое, причем каждой вершине

квадрата соответствует одно из четырех состояний системы (00, 01, 10,

II). На рис. 6.2 б показана трехнейронная система, представленная

кубом (в трехмерном пространстве), имеющим восемь вершин, каждая из

которых помечена трехбитовым бинарным числом. В общем случае система с п

нейронами имеет 2n различных состояний и представляется fi-мерным

гиперкубом.

[pic]

Рис. 6.2 а. Два нейрона порождают систему с четырьмя состояниями.

[pic]

Рис. 6.2 б. Три нейрона порождают систему с восемью состояниями.

Когда подается новый входной вектор, сеть переходит из вершины в

вершину, пока не стабилизируется. Устойчивая вершина определяется

сетевыми весами, текущими входами и величиной порога. Если входной

вектор частично неправилен или неполон, то сеть стабилизируется в

вершине, ближайшей к желаемой.

Устойчивость

Как и в других сетях, веса между слоями в этой сети могут

рассматриваться в виде матрицы W. В работе [2] показано, что сеть с

обратными связями является устойчивой, если ее матрица симметрична и

имеет нули на главной диагонали, т.е. если Wij = Wji и Wii = 0 для

всех i. Устойчивость такой сети может быть доказана с помощью

элегантного математического метода. Допустим, что найдена функция,

которая всегда убывает при изменении состояния сети. В конце концов эта

функция должна достичь минимума и прекратить изменение, гарантируя тем

самым устойчивость сети. Такая функция, называемая функцией

Ляпунова, для рассматриваемых сетей с обратными связями может быть

введена следующим образом:

[pic] (6.2)

где Е - искусственная энергия сети; wij - вес от выхода нейрона i к

входу нейрона j; OUTj - выход нейрона j; Ij - внешний вход нейрона j;

Тj - порог нейрона j.

Изменение энергии Е, вызванное изменением состояния j-

нейрона, есть

[pic] (6.3)

где (0UTj- изменение выхода у-го нейрона. Допустим, что величина NET

нейрона j больше порога. Тогда выражение в скобках будет положительным, а

из уравнения (6.1) следует, что выход нейрона j должен измениться в

положительную сторону (или остаться без изменения). Это значит, что

(0UTj может быть только положительным или нулем и (Е должно быть

отрицательным.

Следовательно, энергия сети должна либо уменьшиться, либо остаться без

изменения. Далее, допустим, что величина NET меньше порога. Тогда

величина (0UTj. может быть только отрицательной или нулем.

Следовательно, опять энергия должна уменьшиться или остаться без

изменения. И окончательно, если величина NET равна порогу, (j равна нулю

и энергия остается без изменения. Это показывает, что любое изменение

состояния нейрона либо уменьшит энергию, либо оставит ее без

изменения. Благодаря такому непрерывному стремлению к уменьшению

энергия в конце концов должна достигнуть минимума и прекратить

изменение. По определению такая сеть является устойчивой. Симметрия

сети является достаточным, но не необходимым условием для устойчивости

системы. Имеется много устойчивых систем (например, все сети прямого

действия!), которые ему не удовлетворяют. Можно продемонстрировать

примеры, в которых незначительное отклонение от симметрии может

приводить к непрерывным осцилляциям. Однако приближенной симметрии

обычно достаточно для устойчивости систем.

Ассоциативная память

Человеческая память ассоциативна, т.е. некоторое воспоминание

может порождать большую связанную с ним область. Например, несколько

музыкальных тактов могут вызвать целую гамму чувственных воспоминаний,

включая пейзажи, звуки и запахи. Напротив, обычная компьютерная память

является локально адресуемой, предъявляется адрес и извлекается

информация по этому адресу. Сеть с обратной связью формирует

ассоциативную память. Подобно человеческой памяти по заданной части

нужной информации вся информация извлекается из «памяти». Чтобы

организовать ассоциативную память с помощью сети с обратными связями,

веса должны выбираться так, чтобы образовывать энергетические минимумы

в нужных вершинах единичного гиперкуба. Хопфилд разработал ассоциативную

память с непрерывными выходами, изменяющимися в пределах от +1 до -1,

соответствующих двоичным значениям 0 и 1. Запоминаемая информация

кодируется двоичными векторами и хранится в весах согласно следующей

формуле:

[pic] (6.4)

где т - число запоминаемых выходных векторов; d - номер запоминаемого

выходного вектора; OUTi,d - i -компонента запоминаемого выходного

вектора. Это выражение может стать более ясным, если заметить, что

весовой массив W может быть найден вычислением внешнего произведения

каждого запоминаемого вектора с самим собой (если требуемый вектор имеет

п компонент, то эта операция образует матрицу размером п х п) и

суммированием матриц, полученных таким образом. Это может быть

записано в виде

W = [pic] (6.5)

где Dj - i -й запоминаемый вектор-строка. Как только веса заданы,

сеть может быть использована для получения запомненного выходного

вектора по данному входному вектору, который может быть частично

неправильным или неполным. Для этого выходам сети сначала придают

значения этого входного вектора. Затем входной вектор убирается и сети

предоставляется возможность «расслабиться», опустившись в ближайший

глубокий минимум. Сеть идущая по локальному наклону функции энергии,

может быть захвачена локальным минимумом, не достигнув наилучшего в

глобальном смысле решения.

Непрерывные системы

В работе [7] рассмотрены модели с непрерывной активационной

функцией F, точнее моделирующей биологический нейрон. В общем случае

это S-образная или логистическая функция

F(x) = 1 / (1+ exp(-(NET)) (6.6)

где ( - коэффициент, определяющий крутизну сигмоидальной функции. Если

( велико, F приближается к описанной ранее пороговой функции.

Небольшие значения ( дают более пологий наклон. Как и для

бинарных систем, устойчивость гарантируется, если веса симметричны, т.е.

wij =wji и wii=0 при всех i. Функция энергии, доказывающая

устойчивость подобных систем, была сконструирована, но она не

рассматривается здесь из-за своего концептуального сходства с дискретным

случаем. Интересующиеся читатели могут обратиться к работе [2] для

более полного рассмотрения этого важного предмета. Если ( велико,

непрерывные системы функционируют подобно дискретным бинарным

системам, окончательно стабилизируясь со всеми выходами, близкими

нулю или единице, т.е. в вершине единичного гиперкуба. С уменьшением (

устойчивые точки удаляются от вершин, последовательно исчезая по мере

приближения ( к нулю. На рис. 6.3 показаны линии энергетических

уровней непрерывной системы с двумя нейронами.

Сети Хопфилда и машина Больцмана

Недостатком сетей Хопфилда является их тенденция стабилизироваться

в локальном, а не глобальном минимуме функции энергии. Эта трудность

преодолевается в основном с помощью класса сетей, известных под

названием машин Больцмана, в которых изменения состоянии нейронов

обусловлены статистическими, а не детерминированными закономерностями.

Существует тесная аналогия между этими методами и отжигом металла,

поэтому и сами методы часто называют имитацией отжига.

Термодинамические системы

Металл отжигают, нагревая его до температуры, превышающей

точку его плавления, а затем давая ему медленно остыть. При высоких

температурах атомы, обладая высокими энергиями и свободой перемещения,

случайным образом принимают все возможные конфигурации. При постепенном

снижении температуры энергии атомов уменьшаются, и система в целом

стремится принять конфигурацию с минимальной энергией. Когда охлаждение

завершено, достигается состояние глобального минимума энергии.

[pic]Рис 6.3. Линии энергетических уровней.

При фиксированной температуре распределение энергий системы

определяется вероятностным фактором Больцмана.

ехр(-E / kT),

где Е - энергия системы; k - постоянная Больцмана; Т -температура.

Отсюда можно видеть, что имеется конечная вероятность того, что система

обладает высокой энергией даже при низких температурах. Сходным

образом имеется небольшая, но вычисляемая вероятность, что чайник с

водой на огне замерзнет, прежде чем закипеть. Статистическое

распределение энергий позволяет системе выходить из локальных

минимумов энергии. В то же время вероятность высокоэнергетических

состояний быстро уменьшается со снижением температуры. Следовательно,

при низких температурах имеется сильная тенденция занять

низкоэнергетическое состояние.

Статистические сети Хопфилда

Если правила изменения состояний для бинарной сети Хопфилда заданы

статистически, а не детерминировано, как в уравнении (6.1), то

возникает система, имитирующая отжиг. Для ее реализации вводится

вероятность изменения веса как функция от величины, на которую выход

нейрона OUT превышает его порог. Пусть

Ek=NETk - (k ,

где NETk - выход NET нейрона k, (k - порог нейрона k, и

pk = 1/ [1 + ехр(-(Ek/ T)],

(отметьте вероятностную функцию Больцмана в знаменателе), где Т -

искусственная температура. В стадии функционирования искусственной

температуре Т приписывается большое значение, нейроны устанавливаются в

начальном состоянии, определяемом входным вектором, и сети

предоставляется возможность искать минимум энергии в соответствии с

нижеследующей процедурой:

1. Приписать состоянию каждого нейрона с вероятностью р значение

единица, а с вероятностью 1 – рk - нуль.

2. Постепенно уменьшать искусственную температуру и повторять шаг 1,

пока не будет достигнуто равновесие.

Обобщенные сети

Принцип машины Больцмана может быть перенесен на сети практически

любой конфигурации, хотя устойчивость не гарантируется. Для этого

достаточно выбрать одно множество нейронов в качестве входов и другое

множество в качестве выходов. Затем придать входному множеству

значения входного вектора и предоставить сети возможность

релаксировать в соответствии с описанными выше правилами 1 и 2.

Процедура обучения для такой сети, описанная в [5], состоит из

следующих шагов: 1. Вычислить закрепленные вероятности.

а) придать входным и выходным нейронам значения обучающего вектора;

б) предоставить сети возможность искать равновесие;

в) записать выходные значения для всех нейронов;

г) повторить шаги от а до в для всех обучающих векторов;

д) вычислить вероятность Р+ij, т.е. по всему множеству обучающих

векторов вычислить вероятность того, что значения обоих нейронов равны

единице.

2. Вычислить незакрепленные вероятности.

а) предоставить сети возможность «свободного движения» без закрепления

входов или выходов, начав со случайного состояния;

б) повторить шаг 2а много раз, регистрируя значения всех нейронов;

в) вычислить вероятность Р-ij, т.е. вероятность того, что значения

обоих нейронов равны единице.

3. Скорректировать веса сети следующим образом:

(wij = ( [ P+ij – P-ij ] ,

где (wij. - изменение веса wij, ( - коэффициент скорости обучения.

ПРИЛОЖЕНИЯ

Аналого-цифровой преобразователь.

В недавних работах [8,10] рассматривалась электрическая схема,

основанная на сети с обратной связью, реализующая четырехбитовый

аналого-цифровой преобразователь. На рис. 6.4 показана блок-схема этого

устройства с усилителями, выполняющими роль искусственных нейронов.

Сопротивления, выполняющие роль весов, соединяют выход каждого нейрона

с входами всех остальных. Чтобы удовлетворить условию устойчивости,

выход нейрона не соединялся сопротивлением с его собственным входом,

а веса брались симметричными, т.е. сопротивление от выхода нейрона i к

входу нейрона j имело ту же величину, что и сопротивление от выхода

нейрона j к входу нейрона i. Заметим, что усилители имеют

прямой и инвертированный выходы. Это позволяет с помощью обычных

положительных сопротивлений реализовывать и те случаи, когда веса должны

быть отрицательными. На рис. 6.4 показаны все возможные

сопротивления, при этом никогда не возникает необходимости присоединять

как прямой, так и инвертированный выходы нейрона к входу другого

нейрона. В реальной системе каждый усилитель обладает конечным

входным сопротивлением и входной емкостью, что должно учитываться при

расчете динамической характеристики. Для устойчивости сети не требуется

равенства этих параметров для всех усилителей и их симметричности. Так

как эти параметры влияют лишь на время получения решения, а не на само

решение, для упрощения анализа они исключены. Предполагается, что

используется пороговая функция (предел сигмоидальной функции при X,

стремящемся к бесконечности). Далее, все выходы изменяются в начале

дискретных интервалов времени, называемых эпохами. В начале каждой

эпохи исследуется сумма входов каждого нейрона. Если она больше

порога, выход принимает единичное значение, если меньше - нулевое. На

протяжении эпохи выходы нейронов не изменяются.

[pic]

Рис. 6.4. Четырехбитовый аналого-цифровой преобразователь, использующий

сеть Хопфилда.

Целью является такой выбор сопротивлений (весов), что непрерывно

растущее напряжение X, приложенное к одновходовому терминалу, порождает

множество из четырех выходов, представляющих двоичную запись числа,

величина которого приближенно равна входному напряжению (рис. 6.5).

Определим сначала функцию энергии следующим образом:

[pic] (6.7)

где Х - входное напряжение. Когда Е минимизировано, то получаются

нужные выходы. Первое выражение в скобках минимизируется, когда

двоичное число, образованное выходами, наиболее близко (в

среднеквадратичном смысле) к аналоговой величине входа X. Второе

выражение в скобках обращается в нуль, когда все выходы равны 1 или 0,

тем самым накладывая ограничение, что выходы принимают только двоичные

значения. Если уравнение (6.7) перегруппировать и сравнить с

уравнением (6.2), то получим следующее выражение для весов:

wij=-2i+j, yi=2i

где wij - проводимость (величина, обратная сопротивлению) от выхода

нейрона i к входу нейрона j (равная также проводимости от выхода

нейрона j к входу нейрона 0); ij. - проводимость от входа Х к входу

нейрона i. Чтобы получить схему с приемлемыми значениями

сопротивлений и потребляемой мощности, все веса должны быть

промасштабированы.

[pic]

Идеальная выходная характеристика, изображенная на рис. 6.5,

будет реализована лишь в том случае, если входы устанавливаются в нуль

перед выполнением преобразования. Если этого не делать, сеть может

попасть в локальный минимум энергии и дать неверный выход.

Задача коммивояжера

Задача коммивояжера является оптимизационной задачей, часто

возникающей на практике. Она может быть сформулирована следующим

образом: для некоторой группы городов с заданными расстояниями между

ними требуется найти кратчайший маршрут с посещением каждого города

один раз и с возвращением в исходную точку. Было доказано, что эта

задача принадлежит большому множеству задач, называемых «NP-полными»

(недетерминистски полиномиальными) [3]. Для NP-полных задач не известно

лучшего метода решения, чем полный перебор всех возможных вариантов, и,

по мнению большинства математиков, маловероятно, чтобы лучший метод был

когда либо найден. Так как такой полный поиск практически неосуществим

для большого числа городов, то эвристические методы используются для

нахождения приемлемых, хотя и неоптимальных решений. Описанное в

работе [8] решение, основанное на сетях с обратными связями, является

типичным в этом отношении. Все же ответ получается так быстро, что в

определенных случаях метод может оказаться полезным. Допустим, что

города, которые необходимо посетить, помечены буквами А, В, С и D, а

расстояния между парами городов есть dab, dbc и т.д. Решением

является упорядоченное множество из n городов. Задача состоит в

отображении его в вычислительную сеть с использованием нейронов в режиме

с большой крутизной характеристики (( приближается к бесконечности).

Каждый город представлен строкой из n нейронов. Выход одного и только

одного нейрона из них равен единице (все остальные равны нулю). Этот

равный единице выход нейрона показывает порядковый номер, в котором

данный город посещается при обходе. На рис. 6.6 показан случай, когда

город С посещается первым, город А - вторым, город D - третьим и

город В - четвертым. Для такого представления требуется n2 нейронов

- число, которое быстро растет с увеличением числа городов. Длина

такого маршрута была бы равна dca + dad + ddb +

dbc. Так как каждый город посещается только один раз и в каждый

момент посещается лишь один город, то в каждой строке и в каждом столбце

имеется по одной единице. Для задачи с п городами всего имеется п!

различных маршрутов обхода. Если п = 60, то имеется 69 34155 х 1078

возможных маршрутов. Если принять во внимание, что в нашей галактике

(Млечном Пути) имеете) лишь 1011 звезд, то станет ясным, что полный

перебор всех возможных маршрутов для 1000 городов даже и. самом

быстром в мире компьютере займет время, сравнимо с геологической эпохой.

Продемонстрируем теперь, как сконструировать сет: для решения этой

NP-полной проблемы. Каждый нейрон снабжен двумя индексами, которые

соответствуют городу порядковому номеру его посещения в маршруте.

Например OUTxj = 1 показывает, что город х был j-ым по порядку j -

ым городом маршрута.

функция энергии должна удовлетворять двум требованиям: во-первых, должна

быть малой только для тех решений, которые имеют по одной единице в

каждой строке и каждом столбце; во-вторых, должна оказывать предпочтение

решениям с короткой длиной маршрута. Первое требование

удовлетворяется введением следующей, состоящей из трех сумм, функции

энергии:

[pic]

(6.9)

где А, В и С- некоторые константы. Этим достигается выполнение

следующих условий:

1. Первая тройная сумма равна нулю в том и только в том случае, если

каждая строка (город) содержит не более одной единицы.

2. Вторая тройная сумма равна нулю в том и только в том случае, если

каждый столбец (порядковый номер посещения) содержит не более одной

единицы.

3. Третья сумма равна нулю в том и только в том случае, если матрица

содержит ровно п единиц.

[pic]

Второе требование - предпочтение коротким маршрутам -

удовлетворяется с помощью добавления следующего члена к функции энергии:

(6.10)

Заметим, что этот член представляет собой длину любого допустимого

маршрута. Для удобства индексы определяются по модулю п, т.е. OUTn+j =

OUTj, a D - некоторая константа. При достаточно больших значениях

А, В и С низкоэнергетические состояния будут представлять допустимые

маршруты, а большие значения D гарантируют, что будет найден короткий

маршрут. Теперь зададим значения весов, т.е. установим

соответствие между членами в функции энергии и членами общей формы (см.

уравнение 6.2)).

Получаем

Wxi,yi = -A(xy (1-(ij) - B(ij (1- (xy ) - C - D(xy((j,i+1 + (j,i-1)

где (ij = 1, если i = j, в противном случае (ij = 0. Кроме того,

каждый нейрон имеет смещающий вес хi, соединенный с +1 и равный Сп.

В работе [8] сообщается об эксперименте, в котором задача

коммивояжера была решена для 10 городов. В этом случае возбуждающая

функция была равна

OUT = 1/ 2[1 + th(NET/ u0)].

Как показали результаты, 16 и 20 прогонов сошлись к допустимому

маршруту и около 50% решений оказались кратчайшими маршрутами, как это

было установлено с помощью полного перебора. Этот результат станет более

впечатляющим, если осознать, что имеется 181440 допустимых маршрутов.

Сообщалось, что сходимость решений, полученных по методу Хопфилда

для задачи коммивояжера, в сильной степени зависит от коэффициентов, и

не имеется систематического метода определения их значений [II]. В этой

работе предложена другая функция энергии с единственным коэффициентом,

значение которого легко определяется. В дополнение предложен новый

сходящийся алгоритм. Можно ожидать, что новые более совершенные методы

будут разрабатываться, так как полностью удовлетворительное решение

нашло бы массу применений.

ОБСУЖДЕНИЕ

Локальные минимумы

Сеть, выполняющая аналого-цифровое преобразование, всегда находит

единственное оптимальное решение. Это обусловлено простой природой

поверхности энергии в этой задаче. В задаче коммивояжера поверхность

энергии сильно изрезана, изобилует склонами, долинами и локальными

минимумами и нет гарантии, что будет найдено глобальное оптимальное

решение и что полученное решение будет допустимым. При этом возникают

серьезные вопросы относительно надежности сети и доверия к ее

решениям. Эти недостатки сети смягчаются тем обстоятельством, что

нахождение глобальных минимумов для NP-полных задач является очень

трудной задачей, которая не может быть решена в приемлемое время никаким

другим методом. Другие методы значительно более медленны и дают не

лучшие результаты.

Скорость

Способность сети быстро производить вычисления является ее

главным достоинством. Она обусловлена высокой степенью распараллеливания

вычислительного процесса. Если сеть реализована на аналоговой

электронике, то решение редко занимает промежуток времени, больший

нескольких постоянных времени сети. Более того, время сходимости

слабо зависит от размерности задачи. Это резко контрастирует с более

чем экспоненциальным ростом времени решения при использовании обычных

подходов. Моделирование с помощью однопроцессорных систем не

позволяет использовать преимущества параллельной архитектуры, но

современные мультипроцессорные системы типа Connection Machine (65536

процессоров!) весьма многообещающи для решения трудных задач.

Функция энергии

Определение функции энергии сети в зависимости от . задачи не

является тривиальным. Существующие решения были получены с помощью

изобретательности, математического опыта и таланта, которые не разбросаны

в изобилии. Для некоторых задач существуют систематические методы

нахождения весов сети. Эти методы излагаются в гл. 7.

Емкость сети

Актуальным предметом исследований является максимальное количество

запоминаемой информации, которое может храниться в сети Хопфилда.

Так как сеть из N двоичных нейронов может иметь 2n состояний, то

исследователи были удивлены, обнаружив, что максимальная емкость памяти

оказалась значительно меньшей. Если бы могло запоминаться большое

количество информационных единиц, то сеть не стабилизировалась бы на

некоторых из них. Более того, она могла бы помнить то, чему ее не

учили, т.е. могла стабилизироваться на решении, не являющемся требуемым

вектором. Эти свойства ставили в тупик первых исследователей, которые не

имели математических методов для предварительной оценки емкости памяти

сети. Последние исследования пролили свет на эту проблему.

Например, предполагалось, что максимальное количество запоминаемой

информации, которое может храниться в сети из N нейронов и

безошибочно извлекаться, меньше чем cN2, где с - положительная

константа, большая единицы. Хотя этот предел и достигается в некоторых

случаях, в общем случае он оказался слишком оптимистическим. В работе

[4] было экспериментально показано, что в общем случае предельное

значение емкости ближе к 0,15N. В работе [1] было показано, что

число таких состояний не может превышать N, что согласуется с

наблюдениями над реальными системами и является наилучшей на сегодняшний

день оценкой.

ВЫВОДЫ

Сети с обратными связями являются перспективным объектом для

дальнейших исследований. Их динамическое поведение открывает новые

интересные возможности и ставит специфические проблемы. Как

отмечается в гл. 9, эти возможности и проблемы сохраняются при

реализации нейронных сетей в виде оптических систем.

Глава 7 Двунаправленная ассоциативная память

Память человека часто является ассоциативной; один предмет

напоминает нам о другом, а этот другой о третьем. Если позволить нашим

мыслям, они будут перемещаться от предмета к предмету по цепочке

умственных ассоциаций. Кроме того, возможно использование способности к

ассоциациям для восстановления забытых образов. Если мы забыли, где

оставили свои очки, то пытаемся вспомнить, где видели их в последний

раз, с кем разговаривали и что делали. Посредством этого

устанавливается конец цепочки ассоциаций, что позволяет нашей памяти

соединять ассоциации для получения требуемого образа. Ассоциативная

память, рассмотренная в гл. 6, является, строго говоря,

автоассоциативной, это означает, что образ может быть завершен или

исправлен, но не может быть ассоциирован с другим образом. Данный

факт является результатом одноуровневой структуры ассоциативной

памяти, в которой вектор появляется на выходе тех же нейронов, на

которые поступает входной вектор. Двунаправленная ассоциативная

память (ДАП) является гетероассоциативной; входной вектор поступает

на один набор нейронов, а соответствующий выходной вектор вырабатывается

на другом наборе нейронов. Как и сеть Хопфилда, ДАП способна к

обобщению, вырабатывая правильные реакции, несмотря на искаженные

входы. Кроме того, могут быть реализованы адаптивные версии ДАП,

выделяющие эталонный образ из зашумленных экземпляров. Эти возможности

сильно напоминают процесс мышления человека и позволяют

искусственным нейронным сетям сделать шаг в направлении моделирования

Страницы: 1, 2, 3, 4, 5, 6, 7, 8


© 2010 Современные рефераты