Демонстрационные примеры ППП NNT
Перечень всех демонстрационных примеров, включенных в ППП NNT, можно получить по команде help nndemos.
Персептроны
| demop1
| Классификация с использованием персептрона с двумя входами
| demop4
| Формирование входных векторов внешнего слоя
| demop5
| Обучение с использованием нормированной функции настройки
| demop6
| Пример линейно неразделимых векторов
| Линейные сети
| demolin1
| Пример функционирования линейной сети
| demolin2
| Обучение линейного нейрона
| demolin4
| Задача линейной аппроксимации
| demolin5
| Задача с неполными данными
| demolin6
| Задача с линейно зависимыми данными
| demolin7
| Оценка влияния параметра скорости настройки
| demolin8
| Адаптируемый линейный слой
| Радиальные базисные сети
| demorb1
| Радиальные базисные сети
| demorb3
| Пример неперекрывающихся функций активации
| demorb4
| Пример перекрывающихся функций активации
| demogrn1
| Сеть GRNN и аппроксимация функций
| demopnn1
| Сеть PNN и классификация векторов
| Сети кластеризации и классификации данных
| Самоорганизующиеся сети
| democ1
| Настройка слоя Кохонена
| demosm1
| Одномерная карта Кохонена
| demosm2
| Двумерная карта Кохонена
| LVQ-сети
| demolvq1
| Классификация векторов
| Рекуррентные сети
| Сети Элмана
| appelm1
| Сеть Элмана
| Сети Хопфилда
| demohop1
| Пример двумерной модифицированной сети Хопфилда
| demohop2
| Пример неустойчивой точки равновесия
| demohop3
| Пример трехмерной модифицированной сети Хопфилда
| demohop4
| Пример устойчивых паразитных точек равновесия
| Применение нейронных сетей
| applin1
| Предсказание стационарного сигнала
| applin2
| Предсказание нестационарного сигнала
| appelm1
| Детектирование амплитуды с помощью сети Элмана
| appcr1
| Распознавание символов
| Нейронные сети и системы управления (среда Simulink)
| predcstr
| Управление каталитическим реактором
| narmamaglev
| Управление магнитной подушкой
| mrefrobotarm
| Управление звеном робота
| Все демонстрационные примеры описаны в тексте книги.
МОДЕЛЬ НЕЙРОНА И АРХИТЕКТУРА СЕТИ
Модель нейрона
Простой нейрон
Элементарной ячейкой нейронной сети является нейрон. Структура нейрона с единственным скалярным входом показана на рис. 2.1, а.
Рис. 2.1
Скалярный входной сигнал p умножается на скалярный весовой коэффициент w, и результирующий взвешенный вход w*p является аргументом функции активации нейрона f, которая порождает скалярный выход a.
Нейрон, показанный на рис. 2.1, б, дополнен скалярным смещением b. Смещение суммируется со взвешенным входом w*p и приводит к сдвигу аргумента функции f на величину b. Действие смещения можно свести к схеме взвешивания, если представить, что нейрон имеет второй входной сигнал со значением, равным 1. Вход n функции активации нейрона по-прежнему остается скалярным и равным сумме взвешенного входа и смещения b. Эта сумма является аргументом функции активации f; выходом функции активации является сигнал a. Константы w и b являются скалярными параметрами нейрона. Основной принцип работы нейронной сети состоит в настройке параметров нейрона таким образом, чтобы поведение сети соответствовало некоторому желаемому поведению. Регулируя веса или параметры смещения, можно обучить сеть выполнять конкретную работу; возможно также, что сеть сама будет корректировать свои параметры, чтобы достичь требуемого результата.
Уравнение нейрона со смещением имеет вид
. (2.1)
Как уже отмечалось, смещение b – настраиваемый скалярный параметр нейрона, который не является входом, а константа 1, которая управляет смещением, рассматривается, как вход и может быть учтена в виде линейной комбинации векторов входа
. (2.2)
Функция активации
Функции активации (передаточные функции) нейрона могут иметь самый различный вид. Функция активации f, как правило, принадлежит к классу сигмоидальных[1] функций с аргументом n и выходом a.
Рассмотрим три наиболее распространенные формы функции активации.
Единичная функция активации с жестким ограничениям hardlim. Эта функция описывается соотношением a = hardlim(n) = 1(n) и показана на рис. 2.2. Она равна 0, если n < 0, и 1, если n ³ 0.
Рис. 2.2.
В состав ППП Neural Network Toolbox входит М-функция hardlim, реализующая функцию активации с жесткими ограничениями. Теперь можно построить график этой функции, применяя операторы языка MATLAB:
n = –5:0.1:5;
plot(n,hardlim(n),'c+:');
В результате получим график функции hardlim в диапазоне значений входа от –5 до + 5 (рис. 2.2).
Линейная функция активации purelin. Эта функция описывается соотношением a = purelin(n) = n и показана на рис. 2.3.
Рис. 2.3.
Логистическая функция активации logsig.Эта функция описывается соотношением a = logsig(n) = 1/(1 + exp(–n)) и показана на рис. 2.4. Она принадлежит к классу сигмоидальных функций, и ее аргумент может принимать любое значение в диапазоне от –¥ до +¥, а выход изменяется в диапазоне от 0 до 1. В ППП Neural Network Toolbox она представлена М-функцией logsig. Благодаря свойству дифференцируемости эта функция часто используется в сетях с обучением на основе метода обратного распространения ошибки.
Рис. 2.4.
Символ в квадрате в правом верхнем углу графика характеризует функцию активации. Это изображение используется на структурных схемах нейронных сетей.
В ППП Neural Network Toolbox включены и другие функции активации. Используя язык MATLAB, пользователь может создавать и свои собственные уникальные функции.
Не нашли, что искали? Воспользуйтесь поиском по сайту:
©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.
|