|
Команды, функции и операторы ППП Neural Network Toolbox
Функции формирования сетей
Операторы
| Назначение
| network
| Создание шаблона нейронной сети
| Персептрон
| newp
| Создание персептрона
| Линейные сети
| newlin
| Создание линейного слоя
| newlind
| Создание линейного слоя путем решения линейного уравнения
| Многослойные сети
| newff
| Создание сети прямой передачи
| newfftd
| Создание сети прямой передачи с запаздыванием
| newcf
| Создание каскадной сети прямой передачи
| Радиальные базисные сети
| newrb
| Создание радиальной базисной сети
| newrbe
| Создание радиальной базисной сети с нулевой ошибкой
| newgrnn
| Создание обобщенной регрессионной сети
| newpnn
| Создание вероятностной нейронной сети
| Сети для решения задач классификации
| newlvq
| Создание нейронной сети для решения задач классификации
| Самоорганизующиеся сети
| netwc
| Создание конкурирующего слоя Кохонена
| newsom
| Создание самоорганизующейся сети Кохонена
| Рекуррентные сети
| newhop
| Создание сети Хопфилда
| newelm
| Создание сети Элмана
|
Функции активации и их производные
compet
| Конкурирующая функция активации
| hardlim
| Функция активации с жесткими ограничениями
| hardlims
| Симметричная функция активации с жесткими ограничениями
| logsig
| Логистическая сигмоидальная функция активации
| poslin
| Положительная линейная функция активации
| purelin
| Линейная функция активации
| radbas
| Радиальная базисная функция активации
| satlin
| Линейная функция активации с ограничениями
| satlins
| Симметричная линейная функция активации с ограничениями
| softmax
| Конкурирующая функция активации с мягким максимумом
| tansig
| Гиперболическая тангенциальная функция активации
| tribas
| Треугольная функция активации
| dhardlim
| Производная функции активации с жесткими ограничениями
| dhardlms
| Производная симметричной функции активации с жесткими ограничениями
| dlogsig
| Производная логарифмической функции активации
| dposlin
| Производная положительной линейной функции активации
| dpurelin
| Производная линейной функции активации
| dradbas
| Производная радиальной базисной функции активации
| dsatlin
| Производная линейной функции активации с жесткими ограничениями
| dsatlins
| Производная линейной функции активации с симметричными жесткими ограничениями
| dtansig
| Производная функции активации гиперболического тангенса
| dtribas
| Производная треугольной функции активации типа
|
Функции взвешивания и расстояний
boxdist
| Максимальное координатное смещение
| dist
| Евклидово расстояние
| dotprod
| Скалярное произведение
| ddotprod
| Производная скалярного произведения
| linkdist
| Расстояния связи между нейронами слоя
| mandist
| Расстояние суммарного координатного смещения
| negdist
| Отрицательное евклидово расстояние
| normprod
| Нормированное скалярное произведение
|
Функции накопления
netsum
| Сумма взвешенных входов
| netprod
| Поэлементное произведение взвешенных входов
| dnetsum
| Производная суммы взвешенных входов
| dnetprod
| Производная поэлементного произведения взвешенных входов
|
Функции инициализации
init
| Инициализация нейронной сети
| initcon
| Инициализация равных смещений
| initlay
| Функция готовности сети к инициализации
| initnw
| Функция инициализации слоя по алгоритму NW (Нгуена – Видроу)
| initwb
| Функция готовности слоя к инициализации
| initzero
| Инициализация нулевых значений весов и смещений
| midpoint
| Инициализация матрицы средних значений
| randnс
| Инициализация случайной матрицы с нормированными столбцами
| randnr
| Инициализация случайной матрицы с нормированными строками
| rands
| Инициализация случайных весов/смещений
| revert
| Возвращение к ранее установленным значениям весов и смещений
|
Функции адаптации и обучения
adapt
| Адаптация параметров сети
| adaptwb
| Функция установки режима адаптации
| train
| Обучение нейронной сети
| trainb
| Групповое обучение нейронной сети
| trainbfg
| Алгоритм обучения Бройтона, Флетчера, Гольдфарба и Шано BFGS)
| trainbr
| Алгоритм обучения BR с регуляризацией по Байесу
| traincgb
| Алгоритм обучения CGB на основе метода сопряженного градиента с обратным распространением и рестартами в модификации Пауэла – Биеле
| trainc
| Обучение нейронной сети c циклическим представлением входа
| traincgf
| Алгоритм Флетчера – Ривса CGF
| traincgp
| Алгоритм Полака – Рибейры CGP
| traingd
| Алгоритм градиентного спуска GD
| traingda
| Алгоритм градиентного спуска с выбором параметра скорости настройки GDA
| traingdm
| Алгоритм градиентного спуска с возмущением GDM
| traingdx
| Алгоритм градиентного спуска с возмущением и адаптацией параметра скорости настройки GDX
| trainlm
| Алгоритм Левенберга – Марквардта LM
| trainoss
| Одношаговый алгоритм метода секущей OSS
| trainr
| Обучение нейронной сети в режиме случайного представления входа
| trainrp
| Пороговый алгоритм обратного распространения ошибки Rprop
| trains
| Адаптивное обучение нейронной сети с последовательным представлением входов
| trainscg
| Алгоритм обучения SCG
|
Функции оценки качества обучения
mae
| Критерий средней абсолютной ошибки
| mse
| Критерий средней квадратичной ошибки
| msereg
| Комбинированный критерий качества
| sse
| Сумма квадратов ошибок обучения
| dmae
| Производная критерия средней абсолютной ошибки
| dmse
| Производная критерия средней квадратичной ошибки
| dmsereg
| Производная комбинированного критерия качества
| dsse
| Производная суммы квадратов ошибок
|
Функции настройки
learncon
| Настройка смещений для слоя Кохонена
| learngd
| Настройка методом градиентного спуска
| learngdm
| Настройка методом градиентного спуска с возмущением
| learnh
| Настройка по правилу Хебба
| learnhd
| Настройка по правилу Хебба с затуханием
| learnis
| Настройка по вектору входа
| learnk
| Настройка весов для слоя Кохонена
| learnlv1
| Настройка весов LVQ-сети по правилу LVQ1
| learnlv2
| Настройка весов LVQ-сети по правилу LVQ2
| learnos
| Настройка по вектору выхода
| learnp
| Настройка параметров персептрона
| learnpn
| Нормированная функция настройки параметров персептрона
| learnsom
| Настройка весов карты Кохонена
| learnwh
| Настройка методом Видроу – Хоффа
| maxlinlr
| Максимальное значение параметра скорости настройки для линейной сети
|
Функции одномерного поиска
srchbac
| Одномерная минимизация на основе метода перебора с возвратами
| srchbre
| Одномерная минимизация методом Брента
| srchcha
| Одномерная минимизация на основе метода Чараламбуса
| srchgol
| Одномерная минимизация методом золотого сечения
| srchhyb
| Одномерная минимизация на основе гибридного метода
|
Масштабирование и восстановление данных
postmnmx
| Восстановление данных после масштабирования функцией premnmx
| postreg
| Постпроцессорная обработка выхода сети с расчетом линейной регрессии
| poststd
| Восстановление данных после применения функции prestd
| premnmx
| Приведение данных к интервалу [–1 1]
| prepca
| Выделение главных компонентов
| prestd
| Приведение данных к нормальному закону распределения
| tramnmx
| Масштабирование текущих входов к диапазону [–1 1]
| trapca
| Масштабирование текущих входов с учетом факторного анализа
| trastd
| Масштабирование текущих входов к нормальному закону распределения
|
Вспомогательные функции
Утилиты вычислений
| calca
| Расчет сигналов сети на заданном интервале времени
| calca1
| Расчет сигналов сети на одном шаге по времени
| calce
| Расчет ошибок слоя на заданном интервале времени
| calce1
| Расчет ошибок слоя на одном шаге по времени
| calcgx
| Расчет градиента функционала качества по объединенному вектору весов и смещений
| calcjejj
| Расчет градиента и приближенной функции Гессе для функционала качества
| calcjx
| Расчет функции Якоби функционала качества относительно объединенной матрицы весов и смещений
| calcpd
| Расчет запаздывающих входов сети
| calcperf
| Расчет сигналов и функционала качества слоя
| formx
| Формирование объединенного вектора весов и смещений
| getx
| Извлечение объединенного вектора весов и смещений из описания сети
| setx
| Включение объединенного вектора весов и смещений в описание сети
| Операции с массивами и матрицами
| cell2mat
| Преобразование массива числовых ячеек в массив double
| combvec
| Объединение выборок разных размеров
| concur
| Создание группы векторов смещений
| con2seq
| Преобразование группового представления данных в последовательное
| ind2vec
| Преобразование вектора индексов классов в матрицу связности
| mat2cell
| Преобразование числового массива в массив ячеек
| minmax
| Вычисление минимальных и максимальных элементов векторов входа
| normc
| Нормировка матрицы по столбцам
| normr
| Нормировка матрицы по строкам
| pnormc
| Псевдонормировка столбцов матрицы
| quant
| Округление элементов массива до ближайшего кратного базису округления
| seq2con
| Преобразование последовательного представления данных в групповое
| sumsqr
| Сумма квадратов элементов массива
| vec2ind
| Преобразование матрицы связности в вектор индексов классов
| Графические утилиты
| errsurf
| Вычисление поверхности ошибок для нейрона с одним входом
| hintonw
| Диаграмма Хинтона для весов
| hintonwb
| Диаграмма Хинтона для весов и смещений
| plotep
| Построение траектории обучения на поверхности ошибки
| plotes
| Построение графика поверхности ошибки для нейрона с одним входом
| plotpc
| Построение разделяющей линии или плоскости в пространстве векторов входа для персептрона
| plotperf
| График функции качества обучения
| plotpv
| Отображение векторов входов и целей в виде маркеров
| plotsom
| Отображение топологии карты Кохонена
| plotv
| Отображение векторов в виде линий
| plotvec
| Отображение векторов входа в виде маркеров
| Информация о сети и ее топологии
| disp
| Вывод на экран свойств нейронной сети
| display
| Вывод на экран имени и свойств нейронной сети
| gridtop
| Расчет сетки с прямоугольной топологией
| hextop
| Расчет сетки с гексагональной топологией
| randtop
| Расчет сетки со случайной топологией
| Графический интерфейс пользователя
| nntool
| Графический интерфейс пользователя ППП Neural Network Tool
| Моделирование нейронных сетей
| sim
| Моделирование нейронной сети
| gensim
| Построение S-модели нейронной сети
| gensimm
| Формирование М-файла для моделирования нейронной сети
|
Предметный указатель
A
ADAPT · 320, 475
ADAPTWB · 322, 475
B
BOXDIST · 305, 474
C
CALCA · 420, 478
CALCA1 · 422, 478
CALCE · 424, 478
CALCE1 · 425, 478
CALCGX · 430, 478
CALCJEJJ · 433, 478
CALCJX · 432, 478
CALCPD · 423, 478
CALCPERF · 429, 478
CELL2MAT · 436, 478
COMBVEC · 437, 478
COMPET · 292, 474
CON2SEQ · 438, 478
CONCUR · 439, 478
D
DDOTPROD · 298, 474
DHARDLIM · 282, 474
DHARDLMS · 283, 474
DISP · 454, 479
DISPLAY · 454, 479
DIST · 300, 474
DLOGSIG · 294, 474
DMAE · 381, 476
DMSE · 378, 476
DMSEREG · 379, 476
DNETPROD · 309, 475
DNETSUM · 307, 475
DOTPROD · 298, 474
DPOSLIN · 285, 474
DPURELIN · 284, 474
DRADBAS · 289, 474
DSATLIN · 286, 474
DSATLINS · 288, 474
DSSE · 377, 476
DTANSIG · 296, 474
DTRIBAS · 290, 474
E
ERRSURF · 451, 479
F
FORMX · 426, 478
G
GENSIM · 465, 479
GENSIMM · 470, 479
GETX · 428, 478
GRIDTOP · 457, 479
H
hardlim · 282, 474
hardlimS · 283, 474
HEXTOP · 457, 479
HINTONW · 448, 479
HINTONWB · 449, 479
I
IND2VEC · 440, 478
inIT · 310, 475
inITCON · 318, 475
inITLAY · 312, 475
inITNW · 313, 475
inITWB · 313, 475
inITZERO · 314, 475
L
LEARNCON · 394, 476
LEARNGD · 387, 476
LEARNGDM · 388, 476
LEARNH · 476
LEARNHD · 477
LEARNIS · 395, 477
LEARNK · 392, 477
LEARNLV1 · 389, 477
LEARNLV2 · 391, 477
LEARNOS · 396, 477
LEARNP · 383, 477
LEARNPN · 384, 477
LEARNSOM · 397, 477
LEARNWH · 385, 477
LEARNН · 399
LEARNНD · 401
linkdist · 306, 474
logsig · 294, 474
M
mae · 381, 476
mandist · 303, 475
MAT2CELL · 441, 478
MAXLINLR · 400, 477
midpoint · 315, 475
MINMAX · 441, 478
mSe · 378, 476
mSeREG · 379, 476
N
negdist · 302, 475
netprod · 309, 475
netSUM · 307, 475
netWC · 271, 473
netWORK · 245, 473
neWCF · 260, 473
neWELM · 277, 473
neWFF · 255, 473
neWFFTD · 258, 473
neWGRNN · 267, 473
neWHOP · 280, 473
neWLIN · 250, 473
neWLIND · 253, 473
neWLVQ · 276, 473
NEWP · 248, 473
neWPNN · 269, 473
neWRB · 263, 473
neWRBE · 265, 473
neWSOM · 273, 473
NNTOOL · 459, 479
NORMC · 442, 478
nORMPRod · 299, 475
NORMR · 442, 478
P
PLOTEP · 452, 479
PLOTES · 451, 479
PLOTPC · 446, 479
PLOTPERF · 450, 479
PLOTPV · 445, 479
PLOTSOM · 455, 479
PLOTV · 443, 479
PLOTVEC · 444, 479
PNORMC · 442, 478
POSLIN · 285, 474
POSTMNMX · 413, 477
POSTREG · 415, 477
POSTSTD · 414, 477
PREMNMX · 410, 477
PREPCA · 477
PRESTD · 411, 477
PREРСА · 412
purelin · 284, 474
Q
QUANT · 443, 478
R
RADBAS · 289, 474
RANDN · 475
randnc · 317
randnR · 318, 475
randS · 316, 475
RANDTOP · 458, 479
REVERT · 319, 475
S
satlin · 286, 474
satlinS · 288, 474
SEQ2CON · 438, 479
SETX · 428, 478
SIM · 459, 479
softmax · 293, 474
SRCHBAC · 409, 477
SRCHBRE · 405, 477
SRCHCHA · 408, 477
SRCHGOL · 404, 477
SRCHHYB · 406, 477
sSE · 377, 476
SUMSQR · 443, 479
T
TANSIG · 296, 474
train · 328, 475
trainb · 331, 475
trainbfg · 365, 475
trainbr · 373, 475
trainc · 334, 476
traincgb · 361, 475
traincgf · 356, 476
traincgp · 358, 476
traingd · 344, 476
traingda · 346, 476
TRAINGDM · 348, 476
traingdx · 351, 476
TRAINGSCG · 476
trainlm · 370, 476
trainoss · 368, 476
trainr · 337, 476
trainrp · 353, 476
trains · 325, 476
trainscg · 363
TRAMNMX · 417, 477
TRAPCA · 418, 477
TRASTD · 417, 477
tribas · 290, 474
V
VEC2IND · 440, 479
Литература
Книги на английском языке:
1. Battiti R. First and second order methods for learning: Between steepest descent and Newton’s method. // Neural Computation. 1992. Vol. 4, N 2. P. 141–166.
2. Beale E. M. L. A derivation of conjugate gradients in F. A. Lootsma.// Numerical methods for nonlinear optimization. London: Academic Press, 1972.
3. Brent R. P. Algorithms for Minimization Without Derivatives. Englewood Cliffs, NJ: Prentice-Hall, 1973.
4. Brent R. P. Introduction to Non-Linear Estimation. 1985.
5. Caudill M. Neural Networks Primer. San Francisco, CA: Miller Freeman Publications, 1989.
6. Caudill M., Butler C. Understanding Neural Networks: Computer Explorations: Vols. 1, 2. Cambridge, MA: MIT Press, 1992.
7. Chen S., Cowan C. F. N., Grant P. M. Orthogonal least squares learning algorithm for radial basis function networks// IEEE Transactions on Neural Networks. 1991. Vol. 2, N 2. P. 302-309.
8. Charalambous C. Conjugate gradient algorithm for efficient training of artificial neural networks// IEEE Proceedings. 1992. Vol. 139, N 3. P. 301–310.
9. Dennis J. E., Schnabel R. B. Numerical Methods for Unconstrained Optimization and Nonlinear Equations. Englewood Cliffs, NJ: Prentice-Hall, 1983.
10. Elman J. L. Finding structure in time// Cognitive Science. 1990. Vol. 14. P. 179-211.
11. Foresee F. D., Hagan M. T. Gauss-Newton approximation to Bayesian regularization// Proceedings of the 1997 International Joint Conference on Neural Networks. 1997. P. 1930-1935.
12. Fletcher R., Reeves C. M. Function minimization by conjugate gradients// ComputerJournal. 1964. Vol. 7. P. 149-154.
13. Gill P. E., Murray W., Wright M. H. Practical Optimization. New York: Academic Press, 1981.
14. Grossberg, S. Studies of the Mind and Brain. Drodrecht, Holland: Reidel Press, 1982.
15. Hagan M. T., Demuth H. B. Neural Networks for Control// Proceedings of the 1999American Control Conference. SanDiego: CA, 1999. P. 1642-1656.
16. Hagan M. T., De Jesus O., Schultz R. Training Recurrent Networks for Filtering and Control. Ch. 12.// Recurrent Neural Networks: Design and Applications, L. Medsker, L.C. Jain,Eds. CRC Press, 1999. P. 311-340.
17. Hagan M.T., Menhaj M. Training feedforward networks with the Marquardt algorithm// IEEE Transactions on Neural Networks.1994. Vol. 5, N 6. P. 989–993.
18. Hagan M. T., Demuth H. B., Beale M.H. Neural Network Design. Boston, MA: PWS Publishing, 1996.
19. Hebb D. O. The Organization of Behavior. New York: Wiley, 1949.
20. Himmelblau D. M., Applied Nonlinear Programming. New York: McGraw-Hill, 1972.
21. Hunt K. J., Sbarbaro D., Zbikowski R., Gawthrop P. J. Neural Networks for Control System – A Survey// Automatica. 1992. Vol. 28. P. 1083-1112.
22. Jolliffe I. T. Principal Component Analysis. New York: Springer-Verlag. 1986.
23. Kohonen T. Self-Organization and Associative Memory.2nd ed. Berlin: Springer-Verlag, 1987.
24. Kohonen, T. Self-Organizing Maps, Second Edition. Berlin: Springer-Verlag. 1997.
25. Li J., Michel A. N., Porod W. Analysis and synthesis of a class of neural networks: linear systems operating on a closed hypercube// IEEE Transactions on Circuits and Systems. 1989. Vol. 36, N 11. P. 1405-1422.
26. Lippman R. P. An introduction to computing with neural nets// IEEE ASSP Magazine. 1987. P. 4-22.
27. MacKay D. J. C. Bayesian interpolation// Neural Computation. 1912. Vol. 4. N 3. P. 415-447.
28. McCulloch W. S., Pitts W. H. A logical calculus of ideas immanent in nervous activity// Bulletin of Mathematical Biophysics. 1943. Vol. 5. P. 115-133.
29. Moller M. F. A scaled conjugate gradient algorithm for fast supervised learning// NeuralNetworks. 1993. Vol. 6. P. 525-533.
30. Murray R. D., Sbarbaro N. D. Neural Networks for Modeling and Control of a Non-linear Dynamic System//Proceedings of the 1992 IEEE International Symposium on IntelligentControl.1992. P. 404-409.
31. Narendra K. S., Mukhopadhyay S. Adaptive Control Using Neural Networks and Approximate Models// IEEE Transactions on Neural Networks. 1997. Vol. 8. P. 475-485.
32. Nguyen D., Widrow B. The truck backer-upper: An example of self-learning in neural networks// Proceedings of the International Joint Conference on Neural Networks. 1989. Vol 2. P. 357-363.
33. Nguyen D., Widrow B. Improving the learning speed of 2-layer neural networks by choosing initial values of the adaptive weights// Proceedings of the International JointConference on Neural Networks. 1990. Vol 3. P. 21-26.
34. Powell M. J. D. Restart procedures for the conjugate gradient method// MathematicalProgramming. 1977. Vol. 12. P. 241-254.
35. Purdie N., Lucas E. A., Talley M. B. Direct measure of total cholesterol and its distribution among major serum lipoproteins// Clinical Chemistry.1992. Vol. 38, N 9. P. 1645-1647.
36. Riedmiller M., Braun H. A direct adaptive method for faster backpropagation learning: The RPROP algorithm// Proceedings of the IEEE International Conference on Neural Networks. 1993.
37. Rosenblatt F. Principles of Neurodynamics. Washington D. C.: Spartan Press, 1961; :Пер. с англ. Розенблатт Ф. Принципы нейродинамики. М.: Мир, 1965.
38. Rumelhart D. E., Hinton G. E., Williams R. J. Learning internal representations by error propagation. Еd. by D. E. Rumelhart, J. L. McClelland// Parallel Data Processing. 1986. Vol.1. Cambridge, MA: The M.I.T. Press. P. 318-362.
39. Rumelhart D. E., Hinton G. E., Williams R. J. Learning representations by back-propagating errors// Nature. 1986. Vol. 323. P. 533–536.
40. Soloway D., Haley P. J. Neural Generalized Predictive Control// Proceedingsof the 1996IEEE International Symposium on Intelligent Control. 1996. P. 277-281.
41. Scales L. E. Introduction to Non-Linear Optimization. New York: Springer-Verlag, 1985.
42. Vogl T.P., Mangis J.K. et al. Accelerating the convergence of the backpropagation method// Biological Cybernetics. 1988. Vol. 59. P. 256-264.
43. Wasserman P. D. Advanced Methods in Neural Computing. New York: Van Nostrand Reinhold, 1993.
44. Widrow B., Hoff M .E. Adaptive switching circuits// 1960 IREWESCON ConventionRecord. New York IRE. 1960. P. 96-104.
45. Widrow B., Sterns S. D. Adaptive Signal Processing. New York: Prentice-Hall, 1985.
Книги на русском языке:
46. Беркинблит М. Б. Нейронные сети. М.: МИРОС, 1993.
47. Уоссерман Ф. Нейрокомпьютерная техника. М.: Мир, 1992.
48. Мишулина О. А., Лабинская А. А., Щербинина М. В. Лабораторный практикум по курсу "Введение в теорию нейронных сетей". М.: МИФИ, 2000. 204 с.
49. Омату С., Халид М., Юсоф Р. Нейроуправление и его приложения. М.: ИПРЖРБ, 2000. 272 с.
50. Тихонов А. Н. О решении некорректно поставленных задач и методе регуляризации// Доклады АН СССР. Т.151, № 3. 1963.
51. Лазарев Ю. Ф. MatLAB 5.x. Киев: Издат. группа BHV, 2000. 384 с.
52. Гультяев А. К. Визуальное моделирование в среде MATLAB: Учеб. курс. СПб: Питер, 2000. 432 с.
53. Потемкин В. Г. Инструментальные средства MATLAB 5.х. М.: Диалог-МИФИ, 2000. 336 с.
54. Медведев В. С., Потемкин В. Г. Control System Toolbox. MATLAB 5 для студентов. /Под общ. ред. В.Г. Потемкина. М.:Диалог-МИФИ, 1999. 287 с. (Пакеты прикладных программ; Кн. 1).
55. Рудаков П. И., Сафонов И. В. Обработка сигналов и изображений. MATLAB 5.x /Под общ. ред. В.Г. Потемкина. М.:Диалог-МИФИ, 1999. 287 с. (Пакеты прикладных программ; Кн. 2).
56. Лавров К. Н., Цыплякова Т. П. Финансовая аналитика. MATLAB 6 /Под общ. ред. В. Г. Потемкина. М.: Диалог-МИФИ, 2001. 363 с. (Пакеты прикладных программ; Кн. 3).
57. Галушкин А.И. Теория нейронных сетей. М.: ИПРЖР, 2000. 416 с.
58. Галушкин А.И. Нейрокомпьютеры. М.: ИПРЖР, 2000. 532 с.
Оглавление
ПРЕДИСЛОВИЕ.. 3
Введение.. 5
Часть 1. ППП Neural Network Toolbox.. 9
1. Система MATLAB 6. 9
1.1. Операционная среда MATLAB 6. 9
1.2. GUI-интерфейс для ППП NNT.. 17
1.3. Демонстрационные примеры ППП NNT.. 31
2. МОДЕЛЬ НЕЙРОНА И АРХИТЕКТУРА СЕТИ.. 33
2.1. Модель нейрона.. 33
2.1.1. Простой нейрон. 33
2.1.2. Функция активации. 34
2.1.3. Нейрон с векторным входом.. 35
2.2. Архитектура нейронных сетей.. 36
2.2.1. Однослойные сети. 36
2.2.2. Многослойные сети. 38
2.2.3. Сети с прямой передачей сигнала. 41
2.3. Создание, инициализация и моделирование сети.. 42
3. Обучение нейронных сетей.. 47
3.1. Процедуры адаптации и обучения. 47
3.1.1. Способы адаптации и обучения. 52
3.2. Методы обучения. 61
3.2.1. Обучение однослойной сети. 61
3.2.2. Обучение многослойной сети. 62
3.3. Алгоритмы обучения. 66
3.3.1. Градиентные алгоритмы обучения. 67
3.3.2. Алгоритмы метода сопряженных градиентов. 75
3.3.3. Квазиньютоновы алгоритмы.. 81
3.3.4. Алгоритмы одномерного поиска. 86
3.3.5. Расширение возможностей процедур обучения. 88
4. Персептроны... 102
4.1. Архитектура персептрона.. 103
4.2. Модель персептрона.. 104
4.3. Процедуры настройки параметров. 107
5. Линейные сети.. 115
5.1. Архитектура линейной сети.. 116
5.2. Создание модели линейной сети.. 117
5.3. Обучение линейной сети.. 118
5.4. Применение линейных сетей.. 122
6. Радиальные базисные сети.. 131
6.1. Сети GRNN.. 140
6.2. Сети PNN.. 144
7. Сети кластеризации и классификации данных.. 147
7.1. Самоорганизующиеся нейронные сети.. 147
7.1.1. Слой Кохонена. 148
7.1.2. Карта Кохонена. 155
7.2. LVQ-сети.. 167
8. Рекуррентные сети.. 175
8.1. Сети Элмана.. 175
8.2. Сети Хопфилда.. 181
9. Применение нейронных сетей.. 188
9.1. Аппроксимация и фильтрация сигналов. 188
9.1.1. Предсказание стационарного сигнала. 188
9.1.2. Слежение за нестационарным сигналом.. 192
9.1.3. Моделирование стационарного фильтра. 194
9.1.4. Моделирование нестационарного фильтра. 197
9.2. Распознавание образов. 199
9.3. Нейронные сети и системы управления. 204
9.3.1. Регулятор с предсказанием.. 204
9.3.2. Регулятор NARMA-L2. 204
9.3.3. Регулятор на основе эталонной модели. 204
Часть 2. Операторы, функции и команды... 204
10. Вычислительная модель нейронной сети.. 204
10.1. Описание сети.. 204
10.2. Описание элементов сети.. 204
11. Формирование моделей нейронных сетей.. 204
11.1. Модели сетей.. 204
11.1.1. Однослойные сети. 204
11.1.2. Многослойные сети. 204
11.2. Функции активации.. 204
11.3. Синаптические функции.. 204
11.4. Функции инициализации.. 204
11.5. Функции адаптации и обучения. 204
11.5.1. Функции оценки качества обучения. 204
11.6. Функции настройки параметров. 204
11.6.1. Функции одномерного поиска. 204
11.7. Масштабирование и восстановление данных.. 204
11.8. Вспомогательные функции.. 204
11.9. Моделирование нейронных сетей и система Simulink.. 204
11.9.1. Применение системы Simulink. 204
Индексный указатель.. 204
Предметный указатель.. 204
Литература.. 204
Оглавление.. 204
[1] Сигмоидальной (S-образной) функцией называется непрерывная функция, имеющая две горизонтальные асимптоты и одну точку перегиба.
Не нашли, что искали? Воспользуйтесь поиском по сайту:
©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.
|