• Ешқандай Нәтиже Табылған Жоқ

(1)1 Некоммерческое акционерное общество СИСТЕМЫ ИНТЕЛЛЕКТУАЛЬНОГО УПРАВЛЕНИЯ И КОНТРОЛЯ Методические указания по выполнению лабораторных работ для магистрантов специальности 6М071600 – Приборостроение Часть II Алматы 2018 АЛМАТИНСКИЙ УНИВЕРСИТЕТ ЭНЕРГЕТИ

N/A
N/A
Protected

Academic year: 2022

Share "(1)1 Некоммерческое акционерное общество СИСТЕМЫ ИНТЕЛЛЕКТУАЛЬНОГО УПРАВЛЕНИЯ И КОНТРОЛЯ Методические указания по выполнению лабораторных работ для магистрантов специальности 6М071600 – Приборостроение Часть II Алматы 2018 АЛМАТИНСКИЙ УНИВЕРСИТЕТ ЭНЕРГЕТИ"

Copied!
24
0
0

Толық мәтін

(1)

1

Некоммерческое акционерное общество

СИСТЕМЫ ИНТЕЛЛЕКТУАЛЬНОГО УПРАВЛЕНИЯ И КОНТРОЛЯ Методические указания по выполнению лабораторных работ

для магистрантов специальности 6М071600 – Приборостроение

Часть II

Алматы 2018

АЛМАТИНСКИЙ УНИВЕРСИТЕТ ЭНЕРГЕТИКИ И СВЯЗИ

Кафедра «Электроника и робототехника»

(2)

2

СОСТАВИТЕЛИ: Байкенов Б.С., Аязбай А.Е. Системы интеллектуального управления и контроля. Методические указания по выполнению лабораторных работ для магистрантов специальности 6М071600 – «Приборостроение». Часть II. – Алматы: АУЭС, 2018.– 24 с.

Нейронные сети являются основной частью интеллектуальных систем управления и широко используются при разработке и проектировании робототехнических и мехатронных систем.

Рассмотрены структуры, назначения и свойства нейронных сетей с обратными связями, методы самообучения нейронных сетей с жесткой и мягкой конкуренцией, свойства нейронных сетей Кохонена и методы самообучения, организация и создание ассоциативной памяти на основе сети Хопфилда при распознавании искаженных образов.

Методические указания составлены в целях закрепления лекционного материала и предназначены для магистрантов специальности 6М071600 –

«Приборостроение».

Ил.-19, библиогр.-4

Рецензент: доцент Курпенов Б.К.

Печатается по плану издания некоммерческого акционерного общества

«Алматинский университет энергетики и связи» на 2018 г.

©НАО «Алматинский университет энергетики и связи», 2018 г.

(3)

3 Введение

Вторая часть методических указаний для выполнения лабораторных работ по дисциплине «Системы интеллектуального управления и контроля»

посвящена изучению методов обучения и самообучения нейронных многослойных нелинейных сетей для распознавания образов.

Подробно рассмотрены структуры, назначения и свойства нейронных сетей с обратными связями, методы самообучения нейронных сетей с жесткой и мягкой конкуренцией, свойства нейронных сетей Кохонена и методы самообучения, организация и создание ассоциативной памяти на основе сети Хопфилда при распознавании искаженных образов.

1 Лабораторная работа №1. Обучение нейронных сетей распознаванию объектов

Цель работы: изучение методов обучения нейронных многослойных нелинейных сетей для распознавания образов.

1.1 Краткие сведения о программе

Программа Example 09 моделирует распознающую сеть (рисунок 1.1).

Рисунок 1.1 - Вид «карточки» областей

При создании сети нужно указать количество слоев, при этом учитывая один нейрон в выходном слое и не учитывая два входных нейрона для приема входных сигналов.

Например, однослойная сеть имеет структуру:

2 - 1, в которой в скрытом слое нейронов нет.

(4)

4

Двухслойная сеть имеет структуру вида:

2 - х - 1.

В этом случае автоматически откроется поле ввода количества нейронов в скрытом слое (Neurons in first hidden layer: 10).

При создании трехслойной сети возникает структура:

2 - х - у - 1,

и нужно будет ввести количество нейронов в обоих скрытых слоях (в полях Neurons in first hidden layer и Neurons in second hidden layer).

Данная программа разработана только до трехслойной сети.

Пространство входных сигналов, в которых сеть должна отвечать «да»

(красные точки на экране), представляет собой окружность (Circle 1, 2, 3).

Первые две координаты 1 и 2 определяют центр окружности и лежат в интервале (-5, +5), а третье число - ее радиус. Например, 0,0,3 – окружность позитивного распознавания в центре квадрата с радиусом 3.

Рисунок 1.2 - Способ представления процесса обучения

На рисунке 1.2 в левой верхней части экрана изображены два квадрата:

первый демонстрирует эталонную область распознавания в виде красного круга, а второй квадрат (справа) показывает «врожденные» способности сети.

В поле Iterations заносятся различные шаги обучения. Коэффициенты Alpha и Eta определяющие, соответственно, скорость и стабильность обучения принимаются по умолчанию.

В левом нижнем квадрате последовательно высвечиваются точки входных сигналов красного или синего цвета. Указание учителя определяет цвет: красный – сеть принимает входной сигнал, а синий - отвергает. Сеть корректирует погрешности путем применения алгоритма обратного распространения ошибки.

(5)

5

После выполнения определенного числа шагов сеть подвергается тесту, результаты которого выводятся на экран слева направо в виде цветных карт.

На начальном этапе обучения необходимо избавить сеть от

«врожденных» качеств и затем приступить к накоплению знаний и умений.

1.1.1 Обучение однослойной сети.

Однослойная сеть, имеет структуру:

2 - 1.

Задача сети: разделить область всех возможных входных сигналов на две подобласти - «одобряемую» и «отвергаемую» - с помощью прямой линии. Для достижения цели необходимо при описании задачи ввести сле- дующие координаты окружностей:

100, 100, 140;

0, 0, 0;

0, 0, 0.

В результате учителем задается «карта» поведения сети в виде первого квадрата, а «врожденные» способности сети до начала обучения во втором квадрате (рисунок 1.3).

Рисунок 1.3 – Вид заданных и «врожденных» способностей сети

Программа задает все точки внутри квадрата и при позитивном отклике точка окрашивается красным цветом, в противном - синим. Для небольших сетей желательно выбирать длительность процесса обучения не более 20 шагов.

1.2 Задание

Однослойная сеть должна распознавать область входных параметров, лежащих внутри круга, отклонять параметры вне его.

Для этого нужно вписывать координаты центра и радиус окружности:

0, 0, 3.5;

(6)

6 0, 0, 0;

0, 0, 0.

На рисунке 1.4 изображены резкие изменения поведения сети и очевидную неспособность к обучению.

Таким образом, эта задача по силам только для двухслойной или трехслойной сети.

Рисунок 1.4 - Безуспешное обучение однослойной сети

1.3 Содержание отчета

1. Цель работы.

2. Скриншоты функционирования и процесса обучения распознающей сети.

3. Выводы.

1.4 Контрольные вопросы

1. Метод распознавания образов касается только графических изображений?

2. В какой форме вводятся образы в нейронную сеть?

3. Как распознающие сети сообщают результаты работы?

4. Чем отличается распознавание нелинейного нейрона и распознающей сети?

5. Какая зависимость между количеством нейронов в скрытых слоях и погрешностью распознавания?

2 Лабораторная работа №2. Нейронные сети с самообучением

Цель работы: изучение методов самообучения нейронных однослойных линейных сетей для распознавания образов.

(7)

7

2.1 Содержание программы Example 10

2.1.1 Самообучение однослойной сети.

В программе Example 10а приведена сеть из 30 нейронов, веса каждого из них принимают случайные значения.

В процессе самообучения сети знания должны содержаться во входных объектах, образующих некие классы подобия («типичный волк», «типичный заяц» и т.д.). Выбрается квадрант, в котором располагается входной объект для распознавания. Условимся называть объекты 1-го квадранта Волками, 2- го Кабанами, 3-го Косулями, а 4-го Зайцами.

Рисунок 2.1 – Вид обучающего объекта («Волк»)

Входной сигнал обучающей выборки отображается в виде зеленого квадратика. Каждый нейрон рассчитывает свой выходной сигнал:

положительный (красный) или отрицательный (синий). Выходные сигналы нейронов с малыми значениями (серый) означают «безразличие» нейрона к объекту.

Если выходной сигнал позитивный (красный), то веса изменяются в сторону приближения нейрона к заданной точке. Если выход нейрона негативный (синий), то он будет «отталкиваться» от эталона.

В итоге в каждом квадранте собираются нейроны для распознавания объекта «своей» группы (рисунок 2.2).

(8)

8

Рисунок 2.2 - Завершающая фаза процесса самообучения

Процесс самообучения усиливает только «врожденные» способности сети. Веса каждого нейрона корректируются с учетом именно его реакции на случайные входные вектора.

Желательно, чтобы «врожденных» предпочтений нейронов было много и разными, для чего в программе Example 10ах возможен выбор исходного расположения нейронов активацией поля (checkbox) Density.

Используя обе программы, провести следующие эксперименты:

- изучить самообучение при изменении коэффициента обучения Etha;

- отследить влияние на расположение нейронов демонстрацией объектов из разных квадрантов при фиксации параметра Randomize;

- изменить количество нейронов сети.

2.1.2 Самообучение нейронной сети в Example 10b.

В программе Example 10b предусотрен автоматический режим путем удержания кнопки Start.

Для облегчения наблюдения за событиями в сети в углу каждого квадранта высвечивается дополнительная информация в виде трех чисел.

0 (3), 1 означает, что в данном квадрантe обучающий объект появлялся десять раз (в том числе трижды в первых девяти презентациях), и в нем находится один нейрон.

На рисунке 2.3 показано поведение сети с большим значением коэффициента обучения. В результате возникающий аттрактор притягивает к себе огромное количество нейронов, которые стараются как можно скорее

(9)

9

обрести способность к распознаванию именно этого объекта.

Процесс обучения протекает быстро, но также быстро приводит к снижению познавательных, умственных способностей сети. Достаточно небольшого числа аттракторов, чтобы все нейроны оказались вовлеченными в их область распознавания.

Рисунок 2.3 - Завершающий этап самообучения сети из 300 нейронов

2.4 Содержание отчета

1. Цель работы.

2. Скриншоты функционирования и процесса самообучения сети.

3. Выводы.

2.5 Контрольные вопросы

1. Для чего необходимо самообучение нейронной сети?

2. Что означает цвет точек-нейронов в программе Example 10а?

3. Как влияют на знания исходное случайное распределение векторов весов?

4. Как проходит самообучение сети с малым количеством нейронов?

5. Как проходит самообучение сети с большим количеством нейронов?

3 Лабораторная работа №3. Самообучение с конкуренцией

Цель работы: изучение методов самообучения нейронных с жесткой и мягкой конкуренцией для распознавания образов.

(10)

10

3.1 Содержание программы Example 10с

3.1.1 Самообучение с жесткой конкуренцией.

В программе можно задать не более 30 нейронов сети. Видно, что все нейроны «стоят» и только победитель подвергается обучению. Для отслеживания его траектории предусмотрено сохранение на экране следа перемещения. Когда «точка-нейрон» превращается в большой красный квадрат, процесс самообучения для соответствующего класса завершается.

Для перевода процесса самообучения в автоматический режим нужно не отпускать кнопку Start. Следует заметить, что в каждом квадрате победителем становится один и тот же нейрон (рисунок 3.1).

Рисунок 3.1 - Процесс самообучения с жесткой конкуренцией

При «жесткой» конкуренции удастся избежать появления «мертвых зон», т.е. входных объектов, которые не распознает ни один нейрон.

Поскольку при обучении с конкуренцией все нейроны (кроме побе- дителя) не изменяют свое местоположение, они остаются готовыми к

«настройке» на другие эталоны.

В программе Example 10с впредусмотрена возможность представлять уже обученной сети новые, ранее неизвестные объекты кнопкой new pattern.

К сожалению, при возникновении новых объектов «победителем» в распознавании какого-либо из них может стать нейрон, ранее специализировавшийся на одном из старых.

Предпосылки к «похищению» новыми объектами могут возникнуть из- за большого количества нейронов сети.

(11)

11

В сети с небольшим количеством нейронов возникает нормальное соперничество в «перетягивании» нейронов в направлении то одного, то другого класса (рисунок 3.2).

Рисунок 3.2 - Эффект «перетягивания» нейрона между объектами

3.1.2 Сеть с мягкой конкуренцией.

Переход в режим «мягкой» конкуренции осуществляется активацией поля Soft competition.

Этот режим приводит к более равномерному распределению нейронов между классами распознаваемых объектов и исключению «похищения»

объектами новых классов нейронов, которые ранее специализировались на распознавании объектов других классов.

Однако, даже при моделировании малых сетей и мягкой конкуренции, может возникнуть явление игнорирования объектов (рисунок 3.3).

В режиме мягкой конкуренции программа Example 10с расставляет специальные маркеры, обозначающие местоположение эталонов игнорируемых классов.

(12)

12

Рисунок 3.3 - Игнорирование некоторых классов при мягкой конкуренции

3.2 Задание

1. Построить самообучающуюся сеть для распознавания 4-х эталонов различных классов.

2. Экспериментально определить число нейронов в начале процесса самообучения сети для распознавания 4-х классов и в конце обучения число

«незадействованных» нейронов не превышало 2-х?

3.3 Содержание отчета

1. Цель работы.

2. Скриншоты функционирования и процесса самообучения сети.

3. Выводы.

3.4 Контрольные вопросы

1. Как ведет себя самообучающаяся сеть при крайних значениях Etha?

2. Может ли самообучающаяся сеть выдумать новый объект?

3. Процесс «переучивания» нейронов связан с процессом забывания?

4. Какие недостатки самообучения сети устраняются за счет кон- куренции?

5. Чем отличается принцип WTA от WTM (Winner Takes Most)?

(13)

13

4 Лабораторная работа №4. Сети Кохонена с самоорганизацией

Цель работы: изучение методов самообучения нейронных сетей Кохонена и их свойств.

4.1 Программа Example 11

4.1.1 Самоорганизация сети Кохонена.

Рассмотрим небольшую сеть размером: по горизонтали (Net size X и по вертикали Net size Y), 5x5 нейронов. Начальные значения весовых ко- эффициентов (Range of initial random weights) принимается по умолчанию.

Для перехода к следующему окну нажимаем на кнопку Next (рисунок 4.1).

Рисунок 4.1 - Вид экрана программы Example 11

В этом окне позиции нейронов в пространстве входных сигналов обозначаются голубыми кругами, а красные линии между окружностями указывают на их связи.

Предусмотрены три варианта представления обучающей последовательности: объекты могут выбираться из всей видимой области пространства в виде квадрата, из подобласти в форме креста или тре- угольника.

Вид фигуры можно выбрать из списка Figure после задания количества шагов выполнения программы (Iterations). Остальные параметры принимаются по умолчанию.

В левом нижнем углу появится изображение всех точек, которые будут

(14)

14

предъявляться сети окрашены одним цветом из-за отсутствия учителя.

После выполнения заданного количества шагов программа выведет на экран новую карту, изображающую расположение нейронов и их связей.

Результат последнего этапа обучения выделяется красным цветом рамки.

Для удобства восприятия выбран разброс весовых коэффициентов равный 7. Для заметного изменения картинки следует перейти на 100 или 300 шагов.

Если входные сигналы происходят из ограниченной области значений входных сигналов, имеющей форму квадрата, то сеть Кохонена старается как можно точнее «покрыть» нейронами именно этот квадрат.

Эффект самоорганизации заключается в том, чтобы для каждой точки пространства входных сигналов найти такой нейрон, который будет распознавать именно эту точку.

4.1.2 Сети Кохонена при обработке более сложных данных.

При ограничении области входного пространства процесс самоорганизации будет стремиться к минимизации объема входных данных.

Это явление можно обнаружить при подаче в сеть входных сигналов из области, имеющей треугольную форму (рисунок 4.2).

Рисунок 4.2 - Сеть Кохонена 30х30, в которой входные данные представлены в треугольной подобласти

Если выбранная подобласть пространства входных сигналов имеет форму креста, то успешное обучение будет только с сетями большего размера (рисунок 4.3).

(15)

15

Рисунок 4.3 - Сеть Кохонена, в которой входные данные представлены в крестообразной подобласти

4.2 Содержание отчета 1. Цель работы.

2. Скриншоты функционирования и процесса обучения сети Кохонена.

3. Выводы.

4.3 Контрольные вопросы

1. Как влияет Alpha0 нейрона-победителя на самоорганизацию сети?

2. Как влияет Alphal на процесс самоорганизации сети?

3. На что влияет форма пространства входных сигналов сети?

4. Как влияет EpsAlpha на процесс самоорганизации сети?

5. Как влияет EpsNeighb процесс самоорганизации сети?

5 Лабораторная работа №5. Рекуррентные сети

Цель работы: изучение назначения, структуры и свойств нейронных сетей с обратными связями.

5.1 Рекуррентные сети

5.1.1 Простейшая сеть с обратной связью в программе Example12a.

Рассмотрим сеть, состоящую из одного линейного нейрона. Она имеет два входа: на первый подается входной сигнал, а на второй - сигнал с выхода, т.е. создается обратная связь (ОС).

(16)

16 Задаваемые параметры сети:

- весовой коэффициент (feedback weight) или сигнал ОС;

- входной сигнал (input signal strength);

- входной сигнал подается непрерывно (single_input_impuls).

Условие равновесия в простейшей сети: если произведение выходного сигнала на вес соответствующего входа будет строго равно сигналу обратной связи. Выходной сигнал, при котором удовлетворяется это условие, называется аттрактором. Для сети с единичным весовым коэффициентом обратной связи аттрактором является любая точка.

Важную роль играет соотношение абсолютного значения весового коэффициента обратной связи и единицы. При коэффициентах, меньших 1, процесс всегда стабилен - он апериодический при положительных значениях и осциллирующий при отрицательных значениях. При коэффициентах, больших 1, процесс всегда нестабилен.

В то же время, когда коэффициент равен 1, возникает следующее: при положительной ОС аттрактором сети становится любой входной сигнал, а при отрицательной ОС осцилляции становятся постоянными - они не увеличиваются и не затухают (рисунок 5.1). Такое состояние называется порогом стабильности.

Рисунок 5.1 - Сеть с ПОС и ООС при fw= ±1

5.1.2 Сети Хопфилда в программе Example12b.

Сеть Хопфилда состоит из 96 нейронов, которые упорядочены в форме матрицы из 12 строк и 8 столбцов. Соответственно, каждое конкретное состояние сети представлется в виде картинки размером 12x8 пикселов.

Если нейрон выработал выходной сигнал +1, то соответствующий

(17)

17

пиксель будет черным, а если сигнал -1, то пиксель будет белым. Нейроны сети Хопфилда нелинейны, они могут находиться только в двух (+1 или -1) состояниях (рисунок 5.2).

Рисунок 5.2 - Пример распределения выходных сигналов нейронов сети

Вид основного окна программы Example 12b для запоминания эталонов представлен на рисунке 5.3.

Рисунок 5.3 - Вид программы-симулятора сети Хопфилда

(18)

18

Эталоны для запоминания вводятся в групповое поле Add pattern (max 20). Можно добавить букву (поле Letter:) или цифру (поле Digit:). Выбор введенного символа необходимо подтвердить щелчком по кнопке Add, после чего изображение символа появится в окне Input pattern(s) for teaching or recalling.

При нажатии на соответствующую букву или цифру программа покажет точную структуру символа в поле Enlarged selected input.

После ввода эталонов можно указать на любой из них и инвертировать (щелчком по кнопкам Inverse и Save) либо удалить (кнопка Remove).

Для запоминания сетью эталонов нужно щелкнуть по кнопке Hebbian learning. После щелчка сразу активируется кнопка Recall entry pattern(s), фиксирующая завершение обучение и начала тестирования сети.

Распознанные образы высвечиваются в окне Recalled entry pattern(s).

После щелчка на изображение любого эталона в окне Input pattern(s) for teaching or recalling активируются кнопки Noise и Inverse в правой части экрана Enlarged selected input.

Поле % (от 0 до 99) предназначено для вписывания доли точек, кото- рые должны измениться. Кнопкой Noise программа случайным образом исказит эталон и вставит этот образ в поле Enlarged selected input.

При нажатии па кнопку Save (расположенную под окном Enlarged selected input) этот искаженный образ будет вставлен в набор запоминаемых эталонов, демонстрируемый в окне Input pattern(s) for teaching or recalling.

Нажатие кнопки Undo the last operation аннулирует последнюю выполненную операцию типа Save или Remove.

В сети иногда возникет являние диафонии, когда эталоны сигналов накладываются друг на друга.

Если же эталоны очень похожи друг на друга, то весовые коэффициенты отдельных нейронов одинаковы.

Для наблюдения и исследования сети важно подобрать хорошо различаемые эталоны.

Это можно достичь двумя способами.

1. При вводе новых эталонов программа сразу же рассчитывает и сообщает степень подобия между новым и ранее запомненными образами.

Критерий DP (скалярное произведение) показывает, насколько два образа подобны друг другу; при этом большое значение DP под каким-либо изображением означает, что его легко спутать с выбранным образом. В свою очередь, расстояние Хэмминга характеризует степень различия между образами. Следовательно, если под каким-то образом высветится большое значение меры Н, то этот образ располагается на безопасном удалении от выбранного изображения.

2. В окне Enlarged selected input будет показано увеличенное изображение выбранного объекта, а под кнопками Noise и Inverse располагается групповое поле Most similar pattern(s), в котором высвечивается информация об эталоне, на который больше всего похож

(19)

19

выбранный тобой образ. Номер такого «потенциально опасного» эталона выводится в поле Numbers.

5.2 Содержание отчета

1. Цель работы.

2. Скриншоты процесса функционирования простейшей сети с ОС.

3. Скриншоты процесса функционирования сети Хопфилда.

4. Выводы.

5.3 Контрольные вопросы

1. Чем отличаются сети с прямым распространением сигналов и с ОС?

2. Когда наступит равновесие выходного сигнала в сети при изменении весов и значений входного сигнала?

3. Какие законы ТАУ связаны с рекуррентными нейронными сетями?

4. Электроэнцефалограммы подтверждают наличие ОС в мозгу человека?

5. Диафония сети Хопфилда встречается в человеческой памяти?

6 Лабораторная работа №6. Ассоциативная память на сетях Хопфилда

Цель работы: изучение свойств ассоциативной памяти на основе сети Хопфилда при распознавании искаженных образов.

6.1 Ассоциативная память на основе сети Хопфилда

Идеальный набор эталонов – набор ортогональных эталонов с нулевыми значениями скалярных произведений входных векторов (по принципу «каждый с каждым») для получения наименьшей степени диафонии.

Программа генерирует ортогональные эталоны автоматически. Для этого в групповом поле Orthogonal and pseudorandom patterns расположено окно Number of pattern(s), в которое нужно вписать число символов (не более 20). После чего нажать на кнопку Generate.

6.2 Порядок выполнения работы

1. Собрать сеть, приведенную на рисунке 6.1.

В сети с небольшим количеством хранимых в памяти эталонов (на- пример, 3-х) предъявляемый образ распознается четко и безошибочно, даже при очень сильных помехах (45%).

(20)

20

Рисунок 6.1 – Вид распознавания при небольшом количестве эталонов

Эффект работы сети также зависит от степени различия запомненных эталонов - даже с небольшим количеством эталонов, но вследствие их сильного сходства сеть плохо узнает предъявленный входной образ.

Следовательно, для выбора максимальной емкости сети необходимо учитывать максимально различающиеся сигналы, желательно ортогональные или псевдослучайные.

2. Собрать сеть, приведенную на рисунке 6.2.

Рисунок 6.2 – Вид распознавание образа при ортогональных эталонах

(21)

21

При ортогональных эталонах результаты будут неплохими при условии выбора максимально различающихся между собой исходных знаков и не больших помехах.

3. Собрать сеть, приведенную на рисунке 6.3.

Распознавание в системе с автоматически сгенерированными ортогональными эталонами зависит от количества хранимых в памяти образов: при большом количестве запомненных эталонов часто возникают проблемы узнавания предъявляемого образа. Попытка предъявления сети более искаженной картинки тут же выявит наличие в сети сильной диафонии.

Рисунок 6.4 - Диафония, проявляющаяся при сильных искажениях входного сигнала

Более того, при наличии неортогональных эталонов (даже когда оставшиеся эталоны ортогональны) в сети проявляется ярко выраженная диафония уже при незначительных искажениях входного сигнала (5%).

6.2 Содержание отчета

1. Цель работы.

2. Скриншоты процесса функционирования сети Хопфилда (рисунки 6.3-5).

3. Выводы.

(22)

22 6.3 Контрольные вопросы

1. Как устранить диафонию при распознавании образов?

2. Почему именно сети Хопфилда используются при создании ассоциативной памяти?

3. Какая из применяемых мер подобия (DP или Н) более эффективнее?

4. С ростом количества нейронов сети количество эталонов увеличивается?

5. Какой ресурс быстро падает при построении больших сетей Хопфилда?

(23)

23

Список литературы

1 Девятков В.В. Системы искусственного интеллекта. – М.: Изд-во МГТУ им.

Н.Э. Баумана, 2001. – 352 с.

2 Интеллектуальные системы автоматического управления /Под ред.

И.М. Макарова – М.: Физматлит, 2001. - 576 с.

3 Тадеусевич Р. Нейронные сети / Перевод с польск. И.Д. Рудинского. – М.:

Горячая линия-Телеком, 2016. – 387 с.

4 Тадеусевич Р. и др. Элементарное введение в технологию нейронных сетей / Перевод с польск. И.Д. Рудинского. – М.: Горячая линия-Телеком, 2011. – 408 с.

Содержание

Введение………... 3

1 Лабораторная работа №1………. 3

2 Лабораторная работа №2………. 6

3 Лабораторная работа №3………. 9

4 Лабораторная работа №4………. 13

5 Лабораторная работа №5………. 15

6 Лабораторная работа №6………. 19

Список литературы………. 23

(24)

24

Сводный план 2018 г., поз.186

Байкенов Бахытжан Сергеевич Аязбай Абу-Алим Ерикулы

СИСТЕМЫ ИНТЕЛЛЕКТУАЛЬНОГО УПРАВЛЕНИЯ И КОНТРОЛЯ

Методические указания по выполнению лабораторных работ для магистрантов специальности

6М071600 – Приборостроение Часть II

Редактор Л.T. Сластихина

Специалист по стандартизации Н.К. Молдабекова

Подписано в печать 28.09.18 Формат 60х84 1/16

Тираж 20 экз. Бумага типографическая № 1 Обьем 1,5 уч.-изд. л. Заказ_____Цена 750 тг.

Копировально-множительное бюро некоммерческого акционерного общества

«Алматинский университет энергетики и связи»

050013, Алматы, ул. Байтурсынова, 126

Ақпарат көздері

СӘЙКЕС КЕЛЕТІН ҚҰЖАТТАР

Для создания беспроводной сети с топологией BSS необходимо настроить точку доступа и абонентские станции. Настройка точки доступа производится

виртуальной системы предназначен для исследования принципов работы четырех дисциплин диспетчеризации: FCFS, SJN, SRT, RR. Для эмуляции используются

ориентированное программирование», «Математическое и компьютерное моделирование». Поиск способов и методов решения вычислительных задач, требующих выполнения

Цель работы: освоить методику построения адаптивных моделей класса ARMA с использованием статистического пакета программ (СПП)

Реестр или его отдельные части можно экспортировать в текстовые reg- файлы, редактировать в блокноте, а затем импортировать обратно. Некорректное изменение

Методические указания содержат указания по подготовке к проведению расчетно-графических работ по работе операционных систем

3.2.3 Программу реализации таймерных функций необходимо выполнить в программном блоке ОВ1, отдельно для каждого типа таймера, как показано на

Рисунок 2.12 - Главное окно программы в подключенном состоянии.. Далее отключите программу от лабораторной установки; для этого выберите