<<
>>

АППРОКСИМАЦИЯ ЗАВИСИМОСТИ С ОДНИМ ВХОДОМ и выходом

ЗАДАНИЕ 1

Построить и обучить нейронную сеть для аппроксимации зависимости с одним входом и выходом по данным, представленным в табл. 4.3.1.

Технология работы

Процесс построения многослойного персептрона состоит из следующих этапов: подготовка таблицы данных, со-

Таблица 4.3.1
k xh Ук k Xk Ук k Xk Ук
1 83,8 31,8 8 94,6 35,7 15 105,4 39,3
2 85,6 32,5 9 96,4 36,4 16 107,9 40,2
3 87,8 33,2 10 96 36,3 17 110,1 41,1
4 86,1 32,4 11 98,2 37,1 18 111,1 41,4
5 89,6 33,8 12 97,2 36,6 19 110,1 41,1
6 91 34,3 13 100,1 37,6 20 111,1 41,4
7 93,9 35,3 14 102,6 38,3

здание структуры сети, ее обучение и оценка качества обучения.

1.

Для создания таблицы данных командой Пуск, Программы, STATISTICA Neural Networks запустите модуль Нейронные сети (рис.
4.3.3), а командой File, New, Data Set откройте окно «Create Data Set» (рис. 4.3.4) выбора числа входов и выходов, в котором установите количество входов (Inputs) 1, выходов (Outputs) 1, и нажмите кнопку Create. В появившейся окне «DataSet Editor» (рис. 4.3.5) заполните столбцы VARI и VAR2 данными из табл. 4.3.1.

В нейронной сети задайте тип переменной: входной (Input) или выходной (Output). Для этого установите курсор на заголовке таблицы VARI, правой клавишей мыши

STATISTIC« Neural Network« Demonstrator

Fae С At Tran Static* ice Run Optame Wndow

Netwcik..

lnicl^c^ Pi-otter* Solve*.

New

Ор«п.,,

Ctoc*

£ûyc

Sava ас... Network set »

Ex Л

Рис. 4.3.3

Data Set Editor (new)
[5
ll^il
Ceses
Vaiiabes
iirairaiii
[УАЯ1
10

Л

12

23

14

14 IS

17

18

19

20

Рис.

4.3.6

Рис. 4.3.7

Влек Propagation |?;(Х'
|10М| Щ Iren
Leering i«te I01 Ы 1 Ы B«nlh*t2* 1
МогмяЛт JJ § й J DO Weights |
и«*« 0 Ы 5100
|5c SKkrffV> Cases Iх Cron aerificAdcfi Close

Рис. 4.3.8
Training Error Graph ^iajx
Interval I1 [fj Епм T 0.0S376 V (OlBSSS deal

откройте контекстное меню и выберите в нем команду Input. Аналогичным образом для заголовка VAR2 выберите команду Output.

В разделе Cases (наблюдения) кнопками счетчика в первом окне задайте 14 данных обучающего (Training) множества, а во втором — б данных контрольного (Verification) множества.

2. Чтобы создать структуру нейронной сети, выполните команду File, New, Network (файл, новый, новая сеть) и в появившемся диалоговом окне «Create Networks» (рис. 4.3.6) сделайте следующие установки:

■ Туре (тип сети): Multilayer Perceptron (многослойный

персептрон);

■ Steps (временное окно): 1 — шаг прогнозирования;

■ Lookahead (горизонт): О.

Установите количество нейронов (Units) во втором слое (Layer 2) равным 3. Количество нейронов в первом слое (Layer 1), равное 1, и в третьем слое (Layer 3), также равное 1, отмечено серым цветом, поэтому не подлежит изменению. Нажмите кнопку Create (создать), и на экране появится сеть, изображенная на рис. 4.3.7.

3. Процесс обучения сети начните с команды Train, Multilayer Perceptrons, Back Propagation (обучение, многослойный персептрон, обратное распространение). После этого появится окно «Back propagation» алгоритма обратного распространения (рис. 4.3.8), в котором задайте следующие значения параметров: количество эпох (полных вычислений) Epochs — 1000; Learning Rate (скорость обучения) — 0,1; Momentum (инерция) — 0,3. Нажмите кнопку Train (обучить).

4. Для качественной оценки работы сети откройте окно «Training Error Graph» (график ошибки обучения) с помощью команды Statistics, Training Graph (статистики, график обучения) или кнопки Ja=J (см. рис. 4.3.9).

Для количественной оценки работы сети командой Statistics, Regression Statistics откройте окно «Regression Statistics» (статистика регрессии), нажмите кнопку Run и запишите в тетрадь результат, представленный на рис. 4.3.10.

Описание основных числовых характеристик данных обучающего (Tr. VAR2) и контрольного (Ve. VAR2) множеств дается ниже.

Data Mean — выборочное среднее выходной переменной:

Data S.

D. — стандартное отклонение выходной переменной:

ys =TfJÈ(y^-y)2

V k=i

Error Mean — средняя ошибка:

1 N

e = T?£(*/* -*/*)•

относительная ошибка:

с _ J_ V Уь ~ У к

^к~ Nh * '

Correlation — корреляция между входной и выходной переменными:

N

X (Ук-у)(Ук-1-Ю

.. _ k=l+1

'I------------ N ’

k=\

где yk_t — значение выхода на I наборов ранее, чем k> т. е. для (k - /)-го набора.

Как видно из рис. 4.3.10, коэффициент корреляции равен 1, что свидетельствует о тесной связи между входной х и выходной у величинами.

Завершите работу определением значений порогов и коэффициентов обученной нейронной сети. Для этого командой Edit, Network Set откройте окно (рис. 4.3.11) «Network

Network Editor (new)

F Щ ünte F §

I Width F”1

Connection* Shown |All layeis
PI0IÜI hi 801 hi «02 hi 803 al
Threshold 0,3077007 0.9514668 -0.3005 0.7571019
al 1.633991 1.764182 0.4936131
hi #01 1.329295
hi 802 1.37192
hi 803 -0.3473

Рис.

4.3.11

Editor» (редактор сети) и в поле Connection Shown (отображаемые связи) выберите команду All layers (все слои). Выпишите в тетрадь значения порогов

Т? =0,307, Т22 =0,951, 7;2 =-0,3

коэффициентов а2 = 1,639, а| = 1,764, а\ =0,494 второго слоя и значения порога Т3 = 0,757 и коэффициентов af =1,329, а| =1,372, а| =-0,347 третьего слоя обученной нейронной сети.

Повторите действия п. 2—4 с двумя и четырьмя нейронами в третьем слое и сравните полученные результаты, используя данные рис. 4.3.10.

4.3.1.

<< | >>
Источник: Ю. И. КУДИНОВ, Ф.Ф. ПАЩЕНКО, А. Ю. КЕЛИНА. ПРАКТИКУМ ПО ОСНОВАМ СОВРЕМЕННОЙ ИНФОРМАТИКИ. 2011

Еще по теме АППРОКСИМАЦИЯ ЗАВИСИМОСТИ С ОДНИМ ВХОДОМ и выходом:

  1. Поддержание баланса между входом и выходом организации.
  2. 7.4. ОДНИМ ВЗГЛЯДОМ
  3. Глава 1. Живите одним днем.
  4. 4. Игра является одним из сильнейших средств нелживого безнасильственного воспитания
  5. Прием выхода в рефлексивную позицию.
  6. Выход из состояния саморегуляции.
  7. Выход из состояния саморегуляции.
  8. Выход из шавасаны
  9. В ПОИСКАХ ВЫХОДА
  10. Статья 126. Выход из полного общества
  11. 8. Выход из разговора
  12. Выход за пределы
  13. 8. Выход из разговора
  14. 5.1. Опросы на входе и на выходе
  15. Выход из страшного круга
  16. Предложение №22 Выход в бой - свободный бросок