Системное автоматизированное проектирование

Информация - Компьютеры, программирование

Другие материалы по предмету Компьютеры, программирование

Скачать Бесплатно!
Для того чтобы скачать эту работу.
1. Подтвердите что Вы не робот:
2. И нажмите на эту кнопку.
закрыть



ливать точную информацию по некоторой

 

ее части. К этому определению близок процесс категоризации - отнесение предъявленного объекта к одному из классов. Многие из предложенных в настоящее время сетей способны фактически осуществлять эти функции. При этом критерии, по которым осуществляется отнесение объектов к тому или иному классу ( распознавание) , различны в разных моделях.

Рассмотрим в качестве примера модель Хопфилда.

Пусть сначала n=1 b и в матрице Т записан всего один образ fi . Скалярноe произведение произвольного вектора m и fi задается выражением (fi , m ) = N - 2 m, где m - хеммингово расстояние между векторами m и fi, равное числу элементов, отличающих эти векторы. Подставляя это выражение в ( 7 ), получим следующее выражение для энергии:

 

.

Из данного выражения видно, что Е принимает минимальное значение при m=0. При этом вектор М совпадает с записанным образом либо, когда m=N ( в этом случае m совпадает с "негативом" ). Поэтому эволюция любого начального состояния системы заканчивается в состояниях m = fi .

В случае n = 2 выражение для энергии имеет вид

 

.

 

Здесь N - число позиций, в которых компоненты записанных в Т векторов совпадают: fi= fi , N- число несовпадающих компонент этих векторов, для которых fi=- fi , m и m - число компонент вектора m в первой и во второй группе нейронов соответственно, отличающих m от fi . Из последнего выражения видно, что система нейронов имеет четыре устойчивых состояния, отвечающих m = 0,N , m =0,N . При этом они совпадают с одним из векторов fi,= fi.

Функцию категоризации могут осуществлять нейронные сети других типов, при этом каждая из сетей делает это по разному. Так, если сеть Хопфилда относит к одному устойчивому вектору все стимулы, попавшие в область его зоны притяжения, то сеть Хемминга относит каждый входной вектор к ближайшему вектору, записанному в память.

 

ВЫРАБОТКА ПРОТОТИПА И ОБОБЩЕНИЕ

 

Различные типы нейронных сетей допускают возможность их обучения для выполнения алгоритмов обработки входной информации. При этом в обучающей выборке может не содержаться полного описания

предлагаемых алгоритмов.

Рассмотрим два примера:

- выработка прототипа в модели Хопфилда ( образование устойчивого образа в памяти, не содержавшегося среди обучаемых векторов),

- обобщение по индукции.

 

 

При увеличении числа образов в памяти минимальные значения энергии, вычисленные с помощью выражения (7) и соответствующие различным записанным векторам, могут начать сливаться.

Рассмотрим группу образов fi ( s=1,...,n) , получающихся при небольших случайных искажениях del некоторого вектора fi .

При изменении вектора fi на величину del происходит изменение энергии, соответствующей этому вектору, на величину del E.

При и случайном искажении исходного вектора fi при построении группы образов может выполняться неравенство del E 0 и следовательно, исходный вектор отвечает минимуму энергии системы. В психологии образ, аналогичный fi ( т.е. являющийся в определенном смысле усреднением некоторого числа образов и остающийся в памяти человека наряду с действительно предъявлявшимися образами) , получил название прототипа.

Сущность обобщения по индукции можно понять на следующем примере. Предположим, что множество входов сети разделено на две части, кодирующие соответственно два "образа". Например, это могут быть два числа либо два изображения предметов. Выходной слой персептрона пусть содержит один бинарный нейрон. При обучении будем стремиться к тому , чтобы на выходе сети была 1, если образы на входе совпадают и 0 , в противном случае. Установлено, что трехслойная сеть может быть обучена по указанному правилу, и способна определять совпадение образов на входе ( или симметрию входного вектора, что в данном случае одно и то же). Таким образом, сеть по индукции обучается устанавливать совпадение двух

векторов, хотя при обучении явное определение понятия совпадение не приводилось. По этому же принципу можно обучить нейронную сеть складывать числа.

 

ЗАКЛЮЧЕНИЕ

 

Практические процедуры обучения нейронных сетей часто сталкиваются с невозможностью добиться от сети желаемого поведения. Ранее упоминались некоторые проблемы такого рода:

- отсутствие сходимости процесса обучения персептронов,

- ложная память в модели Хопфилда.

Причины этого могут разделены на две группы.

1. Значительное время обучения нейронных сетей в сложных случаях.

2. Принципиальная невозможность получения необходимой структуры фазового пространства в заданной модели нейронной сети.

Область приложения нейронных сетей значительна и расширяется.

Этот процесс идет по ряду направлений. К их числу можно отнести следующие:

- поиск новых нелинейных элементов , которые могли бы реализовывать сложное коллективное поведение в ансамбле,

- разработка новых архитектур нейронных сетей, перспективных с точки зрения их реализации на электронной, оптической и оптоэлектронной элементной базе,

- поиск областей приложения нейронных сетей в системах управления, робототехнике, системах обработки изображений, распознавания речи.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s