Сделай Сам Свою Работу на 5

Обучение в нечетких нейронных сетях для задач управления





На рисунке 2.51 показана схема супервизорного обучения в ННС.

 

Рис. 2.51. Схема супервизорного обучения в ННС

 

Задача обучения формулируется следующим образом: на основе обучающей выборки, которую в дальнейшем будем называть «обучающим сигналом» (ОС), настроить параметры сети так, чтобы ошибка аппроксимации ОС была минимальной.

Мера ошибки аппроксимации может быть выбрана, например (смотри (2.23)), как

,

где – выход ННС, соответствующий выбранной модели нечеткого вывода.

Рассмотрим метод обратного распространения ошибки для ННС, реализующей, например, модель нечеткого вывода Мамдани. В общем виде правила в такой модели выглядят следующим образом:

Правило l:

ЕСЛИ ТО ,

где – входные лингвистические переменные, « » операция нечеткой конъюнкции.

В общем виде, четкое выходное значение в модели Мамдани (с нечеткой конъюнкцией в виде умножения, синглетон-фаззификатором и дефаззификатором «средний максимум») вычисляется по следующей формуле:

,

где - точка максимального значения (центра) функции .

ННС моделирует этот процесс нечеткого вывода с помощью структуры, показанной на рис. 2.51.



Задача обучения в такой сети ставится следующим образом:

С использованием обучающего сигнала настроить параметры сети так, чтобы мера ошибки аппроксимации была минимальной.

Будем использовать следующее правило обновления параметров сети:

на каждой следующей итерации алгоритма обучения добавлять к параметру его поправку в виде:

,

где 0 < η < 1 - множитель, задающий скорость обучения.

Рис. 2.51. Архитектура ННС для модели нечеткого вывода Мамдани

 

Вычислим производные функции :

Алгоритм обучения ННС на основе алгоритма обратного распространения ошибки строится следующим образом:

1. Генерируем начальные малые (между 0 и 1) значения параметров сети с помощью генератора случайных чисел или задаем априори. Устанавливаем счетчик шагов обучения = 0; = 0. Устанавливаем значение допустимой ошибки .

2. Устанавливаем счетчик обучающих пар ; .

3. Если p = P (заданное число обучающих пар), то (если , то stop, иначе перейти к шагу 2).

4. p = p +1.

5. Распространяем вход p-ой обучающей пары через сеть и вычисляем результат.



6. Вычисляем общую ошибку

.

7. Обновляем параметры:

;

8. Переходим к шагу 3.

Блок-схема данного алгоритма показана на Рис.2.52.

В данной главе мы рассмотрели следующие основные компоненты технологии мягких вычислений:

· Нечеткие системы, используемые для задач нечеткого вывода и управления;

· Генетические алгоритмы – для задач глобальной оптимизации законов управления;

· Нечеткие нейронные сети - для физической реализации законов оптимального управления, а также для реализации обучения и адаптации БЗ.

В следующих главах мы рассмотрим технологию и разработанный инструментарий для проектирования нечетких контроллеров на основе мягких вычислений и рассмотрим примеры их применения.

 

Рис. 2.52. Блок-схема алгоритма обучения ННС на основе алгоритма обратного распространения ошибки

Рекомендуемая дополнительная литература к Главе 2

1. Litvintseva L.V., Ulyanov S.V. Takahashi K., Ulyanov S.S. Intelligent robust control design based on new types of computations. Part 1: New soft computing technology of KB-design Benchmarks of smart control simulation for nonlinear dynamic systems. – Universita degli Studi di Milano, Polo Didattico e di Ricerca di Crema Publ. – 2004. – Vol. 60.

2. Заде Л. Понятие лингвистической переменной и его применение к принятию приближенных решений. – М.: Мир. – 1976.

3. Кофман А. Введение в теорию нечетких множеств. – М.: Радио и связь. – 1982.

4. Tanaka K. An Introduction to Fuzzy Logic for practical Applications. – Berlin: Springer Verlag. – 1991.

5. Алиев Р.А., Ульянов С.В. Нечеткие модели процессов и систем управления. – Итоги Н и Т, Сер. Техническая кибернетика. – 1990. – Т. 29; –1991. – Т. 32.

6. Литвинцева Л.В., Ульянов С.В., Ульянов С.С. Проектирование робастных баз знаний нечетких регуляторов для интеллектуального управления существенно-нелинейными динамическими системами. Ч. II // Изв. РАН. ТиСУ. – 2006. – № 5. – С. 69–97.



7. Holland J.H. Adaptation in Natural and Artificial Systems. – University of Michigan Press, Ann Arbor. – 1975.

8. Goldberg D.E. Genetic Algorithms in Search, Optimization, and Machine Learning. – MA: Addison-Wesley, Reading. – 1989.

9. Емельянов В. В., Курейчик В. В., Курейчик В. М. Теория и практика эволюционного моделирования. — М: Физматлит, 2003. — С. 432.

10. Wasserman P. (1993) Advanced Methods in Neural Computing. Van Nostrand Reinhold, New York.;

11. Kasabov N.K. (1996) Foundations of Neural Networks, Fuzzy Systems, and Knowledge Engineering, MIT Press, Cambridge, Massachusetts

12. Уоссермен, Ф. Нейрокомпьютерная техника: Теория и практика (Neural Computing. Theory and Practice). — М.: Мир, 1992. — 240 с.

13. Hebb D.O. (1949) The Organization of Behavior, New York: Wiley.

14. Patterson D.W. (1996), Artificial neural networks, theory and applications, Prentice Hall, Singapore.

15. Jang J-S.R. , Sun C-T., Mizutani E. (1996) Neuro-Fuzzy Modeling and Soft Computing (A computational approach to learning and machine intelligence), Matlab Curriculum series.

16. Rosenblatt R. (1962) Principles of Neurodynamics, Spartan Books, New York;

17. Minsky M. and Papert S. (1969) Perceptrons: An Introduction to Computational Geometry, MIT Press, Cambridge, Mass.

18. Rumelhart D.E., Hinton G.E.and Williams R.J (1986) Learning representations by backpropagating errors, Nature, Vol.323, 533-536;

19. Freeman J.A. (1994) Back propagation and its variants, Addison-Wesley, Reading, MA.

20. Хайкин, С. Нейронные сети: Полный курс = Neural Networks: A Comprehensive Foundation. — 2-е изд. — М.: «Вильямс», 2006. — 1104 с.

21. Галушкин А. И. Нейронные сети. Основы теории. — М.: Горячая Линия - Телеком. — 2010.

22. Intelligent Quantum & Soft Computing R&D Group [Электронный ресурс] URL: http://www.qcoptimizer.com/ (Дата обращения: 28.04.2011)

Контрольные вопросы к Главе 2

1. Виды искусственных нейронных сетей

2. Нечеткие нейронные сети

3. Процессы обучения и адаптации

4. Структура генетического алгоритма

5. Операторы генетического алгоритма

6. Роль нечетких нейронных сетей и генетического алгоритма в задачах интеллектуального управления

 








Не нашли, что искали? Воспользуйтесь поиском по сайту:



©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.