Сделай Сам Свою Работу на 5

Демонстрационные примеры ППП NNT





Перечень всех демонстрационных примеров, включенных в ППП NNT, можно получить по команде help nndemos.

Персептроны
demop1 Классификация с использованием персептрона с двумя входами
demop4 Формирование входных векторов внешнего слоя
demop5 Обучение с использованием нормированной функции настройки
demop6 Пример линейно неразделимых векторов
Линейные сети
demolin1 Пример функционирования линейной сети
demolin2 Обучение линейного нейрона
demolin4 Задача линейной аппроксимации
demolin5 Задача с неполными данными
demolin6 Задача с линейно зависимыми данными
demolin7 Оценка влияния параметра скорости настройки
demolin8 Адаптируемый линейный слой
Радиальные базисные сети
demorb1 Радиальные базисные сети
demorb3 Пример неперекрывающихся функций активации
demorb4 Пример перекрывающихся функций активации
demogrn1 Сеть GRNN и аппроксимация функций
demopnn1 Сеть PNN и классификация векторов
Сети кластеризации и классификации данных
Самоорганизующиеся сети
democ1 Настройка слоя Кохонена
demosm1 Одномерная карта Кохонена
demosm2 Двумерная карта Кохонена
LVQ-сети
demolvq1 Классификация векторов
Рекуррентные сети
Сети Элмана
appelm1 Сеть Элмана
Сети Хопфилда
demohop1 Пример двумерной модифицированной сети Хопфилда
demohop2 Пример неустойчивой точки равновесия
demohop3 Пример трехмерной модифицированной сети Хопфилда
demohop4 Пример устойчивых паразитных точек равновесия
Применение нейронных сетей
applin1 Предсказание стационарного сигнала
applin2 Предсказание нестационарного сигнала
appelm1 Детектирование амплитуды с помощью сети Элмана
appcr1 Распознавание символов
Нейронные сети и системы управления (среда Simulink)
predcstr Управление каталитическим реактором
narmamaglev Управление магнитной подушкой
mrefrobotarm Управление звеном робота

Все демонстрационные примеры описаны в тексте книги.




МОДЕЛЬ НЕЙРОНА И АРХИТЕКТУРА СЕТИ

Модель нейрона

Простой нейрон

Элементарной ячейкой нейронной сети является нейрон. Структура нейрона с единственным скалярным входом показана на рис. 2.1, а.



Рис. 2.1

Скалярный входной сигнал p умножается на скалярный весовой коэффициент w, и результирующий взвешенный вход w*p является аргументом функции активации нейрона f, которая порождает скалярный выход a.

Нейрон, показанный на рис. 2.1, б, дополнен скалярным смещением b. Смещение суммируется со взвешенным входом w*p и приводит к сдвигу аргумента функции f
на величину b. Действие смещения можно свести к схеме взвешивания, если представить, что нейрон имеет второй входной сигнал со значением, равным 1. Вход n функции активации нейрона по-прежнему остается скалярным и равным сумме взвешенного входа
и смещения b. Эта сумма является аргументом функции активации f; выходом функции активации является сигнал a. Константы w и b являются скалярными параметрами нейрона. Основной принцип работы нейронной сети состоит в настройке параметров нейрона таким образом, чтобы поведение сети соответствовало некоторому желаемому поведению. Регулируя веса или параметры смещения, можно обучить сеть выполнять конкретную работу; возможно также, что сеть сама будет корректировать свои параметры, чтобы достичь требуемого результата.

Уравнение нейрона со смещением имеет вид

. (2.1)

Как уже отмечалось, смещение b – настраиваемый скалярный параметр нейрона, который не является входом, а константа 1, которая управляет смещением, рассматривается, как вход и может быть учтена в виде линейной комбинации векторов входа

. (2.2)

Функция активации

Функции активации (передаточные функции) нейрона могут иметь самый различный вид. Функция активации f, как правило, принадлежит к классу сигмоидальных[1] функций
с аргументом n и выходом a.



Рассмотрим три наиболее распространенные формы функции активации.

Единичная функция активации с жестким ограничениям hardlim. Эта функция описывается соотношением a = hardlim(n) = 1(n) и показана на рис. 2.2. Она равна 0, если n < 0, и 1, если n ³ 0.

Рис. 2.2.

В состав ППП Neural Network Toolbox входит М-функция hardlim, реализующая функцию активации с жесткими ограничениями. Теперь можно построить график этой функции, применяя операторы языка MATLAB:

n = –5:0.1:5;

plot(n,hardlim(n),'c+:');

В результате получим график функции hardlim в диапазоне значений входа от –5 до + 5 (рис. 2.2).

Линейная функция активации purelin. Эта функция описывается соотношением
a = purelin(n) = n и показана на рис. 2.3.

Рис. 2.3.

Логистическая функция активации logsig.Эта функция описывается соотношением
a = logsig(n) = 1/(1 + exp(–n)) и показана на рис. 2.4. Она принадлежит к классу сигмоидальных функций, и ее аргумент может принимать любое значение в диапазоне от –¥ до +¥, а выход изменяется в диапазоне от 0 до 1. В ППП Neural Network Toolbox она представлена М-функцией logsig. Благодаря свойству дифференцируемости эта функция часто используется в сетях с обучением на основе метода обратного распространения ошибки.

Рис. 2.4.

Символ в квадрате в правом верхнем углу графика характеризует функцию активации. Это изображение используется на структурных схемах нейронных сетей.

В ППП Neural Network Toolbox включены и другие функции активации. Используя язык MATLAB, пользователь может создавать и свои собственные уникальные функции.

 








Не нашли, что искали? Воспользуйтесь поиском по сайту:



©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.