جزییات کتاب
Аннотация:У навчальному пос?бнику викладено основн? принципи побудови штучних нейронних мереж (ШНМ) як самост?йного напрямку в теор?ї ?нтелектуальних систем, подано б?олог?чний аналог штучного нейрона ? процеси обробки ?нформац?ї в б?олог?чних системах. Наведено р?зноман?тн? модел? штучних нейрон?в ? розглянуто властивост? мереж, побудованих на їх основ?, починаючи в?д персептрона ? зак?нчуючи нов?тн?ми розробками в ц?й галуз?. Значну увагу прид?лено методам навчання ШНМ, питанням рац?онального вибору ? спрощення їх арх?тектури. Окремий розд?л пос?бника присвячений розгляду прикладного аспекту використання нейромережевих технолог?й (ф?нансове прогнозування, адаптивне управл?ння складними об?єктами за умов невизначеност?, обробка в?део- та мовних сигнал?в, ф?льтрац?я ? стиснення ?нформац?ї тощо).Для студент?в, асп?рант?в ? науково-техн?чних сп?вроб?тник?в, як? займаються створенням сучасних способ?в обробки ?нформац?ї.Перевод:В учебном пособии изложены основные принципы построения искусственных нейронных сетей как самостоятельного направления в теории интеллектуальных систем, подан биологический аналог искусственного нейрона и процессы обработки информации в биологических системах. Приведены разнообразные модели искусственных нейронов и рассмотрены свойства сетей, построенных на их основе, начиная от персептрона и заканчивая новейшими разработками в этой отрасли. Значительное внимание уделено методам обучения искусственных нейронных сетей, вопросам рационального выбора и упрощения их архитектуры. Отдельный раздел пособия посвящен рассмотрению прикладного аспекта использования нейросетевых технологий (финансовое прогнозирование, адаптивное управление сложными объектами при условиях неопределенности, обработка видео- и языковых сигналов, фильтрация и сжатие информации и тому подобное).Содержание:ЗМ?СТПЕРЕДМОВАВСТУП1. Б?ОЛОГ?ЧН? ОСНОВИ НЕЙРОННИХ МЕРЕЖ1.1. Мозок людини1.2. Нейрон1.3. Передавання ?нформац?ї2. ОСНОВН? ПОНЯТТЯ ШТУЧНИХ НЕЙРОННИХ МЕРЕЖ2.1. Структура штучного нейрона2.2. Модел? штучних нейрон?в2.2.1. Формальна модель нейрона Маккаллоха — П?ттса2.2.2. Модель нейрона Адал?ни2.2.3. Модель нейрона Фукуш?ми2.2.4. Модель штучного нейрона Гопф?лда2.2.5. Модель ?россбер?а2.2.6. Узагальнена модель нейрона2.2.7. ∑-П-нейрон2.2.8. Стохастичний нейрон2.3. Тополог?я ШНМ2.3.1. ШНМ прямого поширення2.3.2. ШНМ зворотного поширення2.3.3. Повнозв?язн? ШНМ2.4. Навчання ШНМ2.4.1. Правило навчання Гебба (корелятивне, сп?вв?дносне навчання)2.4.2. Дельта-правило2.4.3. Розширене дельта-правило2.4.4. Конкурентне навчання2.4.5. Стохастичне навчання2.4.6. Град?єнтн? методи навчання2.4.7. Навчання з п?дкр?плюванням3. РАНН? АРХ?ТЕКТУРИ ШНМ3.1. Одношаров? ШНМ3.1.1. Одношаровий персептрон3.1.2. Навчання персептрона3.1.3. Теорема зб?жност? для персептрона3.1.4. Адал?на3.1.5. Н-Адал?на3.1.6. Вх?дна з?рка ?россбер?а3.1.7. Вих?дна з?рка3.2. Л?н?йна розд?льн?сть3.3. Багатошаров? ШНМ3.3.1. Багатошаровий персептрон3.3.2. Мадал?на3.3.3. ШНМ, що заснована на МГУА3.4. Алгоритм зворотного поширення помилки3.4.1. Обчислення ваг нейрон?в вих?дного шару3.4.2. Обчислення ваг нейрон?в прихованого шару4. ШНМ-КОМПАРАТОР5. АСОЦ?АТИВНА ПАМ?ЯТЬ5.1. Асоц?ативна мережа прямого поширення5.2. Алгоритми навчання асоц?ативної пам?ят?5.2.1. Правило навчання Гебба5.2.2. Дельта-правило5.2.3. Алгоритми навчання, що використовують операц?ю псевдообернення матриц? вх?дних сигнал?в5.2.4. Розп?знавання спотвореного образу5.3. Гетероасоц?ативна пам?ять5.4. Автоасоц?ативна пам?ять5.5. Двоспрямована асоц?ативна пам?ять6. МЕРЕЖА ГОПФ?ЛДА6.1. Модель Гопф?лда6.2. Навчання в мереж? Гопф?лда6.2.1. Накопичення образ?в у мереж? Гопф?лда6.2.2. Виклик образу6.3. Синхронна мережа Гопф?лда6.4. Неперервна мережа Гопф?лда6.5. Асоц?ативна мережа BSB7. СИНЕРГЕТИЧНИЙ КОМП?ЮТЕР8. МЕРЕЖА ХЕММ?НГА9. ДИНАМ?ЧН? РЕКУРСИВН? ШНМ9.1. Структура ДРМ9.2. Неперервн? ДРМ9.3. Дискретна ДРМ9.3.1. Повнозв?язн? ДРМ9.3.2. Частково-рекурсивн? мереж?9.3.3. Локально-рекурсивн? мереж? прямого поширення9.4. Навчання ДРМ9.4.1. Алгоритм зворотного поширення помилки9.4.2. Адаптивний алгоритм навчання10. МЕРЕЖА ВЕКТОРНОГО КВАНТУВАННЯ10.1. Структура мереж? векторного квантування10.2. Неконтрольоване навчання мереж? ВК10.3. Коонтрольоване навчання мереж? ВК10.3.1. LVQ110.3.2. LVQ2.110.3.3. LVQ310.3.4. OLVQ111. МЕРЕЖА КОГОНЕНА11.1. Структура мереж? Когонена11.2. Навчання мереж? Когонена11.3. Виб?р функц?ї ?сус?дства?11.4. Побудова мапи Когонена12. МЕРЕЖ? ЗУСТР?ЧНОГО ПОШИРЕННЯ12.1. Арх?тектура мереж? зустр?чного поширення12.2. Навчання шару Когонена12.2.1. Нормування вход?в12.2.2. Корекц?я вагових коеф?ц?єнт?в12.2.3. ?н?ц?ал?зац?я елемент?в вагової матриц?12.3. Навчання шару ?россбер?а12.4. Повна мережа зустр?чного поширення13. МАШИНА БОЛЬЦМАНА13.1. Структура машини Больцмана13.2. Навчання в машин? Больцмана13.2.1. Модель в?дпалювання13.2.2. Алгоритм навчання машини Больцмана13.2.3. Обговорення алгоритму навчання13.2.4. Алгоритм класиф?кац?ї (розп?знавання)13.3. Машина Кош?14. СТОХАСТИЧН? МЕРЕЖ?14.1. Байєс?вський класиф?катор14.2. В?кна Парзена14.3. Структура стохастичної мереж?14.4. Узагальнено-регрес?йна ШНМ14.4.1. Р?вняння регрес?ї14.4.2. Узагальнено-регрес?йна мережа15. РАД?АЛЬНО-БАЗИСНА МЕРЕЖА15.1. Арх?тектура РБМ15.1.1. Структура мереж?15.1.2. Нейрон шаблонного шару мереж?15.2. Навчання рад?ально-базисної мереж?15.2.1. Виб?р параметр?в центр?в ? в?дхилень σ15.2.2. Самонавчання параметр?в центр?в15.2.3. Навчання мереж? ?з учителем15.2.4. Зм?на к?лькост? нейрон?в шаблонного шару15.3. Нормал?зована рад?ально-базисна мережа15.4. Г?пербазисна мережа15.4.1. Структура мереж?15.4.2. Навчання мереж?16. НЕЙРОННА МЕРЕЖА СМАС16.1. Принцип роботи мереж?16.2. Структура мереж? СМАС16.3. Кодування ?нформац?ї16.4. Виб?р базисних функц?й16.5. Гешування ?нформац?ї16.5.1. Алгоритми гешування ?нформац?ї у СМАС16.5.2. Геш-кол?з?ї16.6. Навчання мереж?17. НЕОКОГН?ТРОН17.1. Структура неокогн?трона17.2. Процес розп?знавання образу17.2.1. Розп?знавання неспотвореного образу17.2.2. Розп?знавання спотвореного образу17.3. Структура S-нейрона17.4. Навчанння неокогн?трона17.4.1. Навчання без учителя17.4.2. Навчання з учителем17.5. Неокогн?трон з механ?змом виб?рної уваги18. КАСКАДНО-КОРЕЛЯЦ?ЙН? МЕРЕЖ?18.1. Арх?тектура мереж?18.2. Навчання ККМ18.3. Основн? переваги ККМ19. МЕРЕЖА З ЕЛЕМЕНТАМИ ЗАТРИМКИ СИГНАЛУ19.1. Структура мереж?19.2. Навчання мереж?19.2.1. Алгоритм зворотного поширення помилки19.2.2. Прискорення процесу навчання19.3. ?єрарх?чн? мереж? з часовою затримкою сигналу20. МЕРЕЖ? НА ОСНОВ? ТЕОР?Ї АДАПТИВНОГО РЕЗОНАНСУ20.1. Мережа ART-120.1.1. Арх?тектура й призначення основних модул?в20.1.2. Функц?онування мереж?20.1.3. Функц?онування ART-120.2. Мережа ART-220.2.1. Динам?ка мереж? ART-220.2.2. Навчання мереж? ART-220.3. Мережа ART-2a20.4. Мережа ART MAP20.5. ?нш? мереж? ART20.5.1. Мережа ART-320.5.2. FUZZY-ART21. МЕТОДИ СПРОЩЕННЯ СТРУКТУРИ МЕРЕЖ21.1. Методи вилучення ваг21.1.1. Вилучення ваг, що мають найменш? значення21.1.2. Метод OBD21.1.3. Метод OBS21.2. Методи вилучення нейрон?в21.2.1. Вилучення нейрон?в з урахуванням їх важливост?21.2.2. Вилучення нейрон?в прихованого шару з використанням варт?сної функц?ї21.2.3. Вилучення ваг з використанням варт?сної функц?ї22. ГЕНЕТИЧН? АЛГОРИТМИ22.1. Кодування генетичної ?нформац?ї22.2. Генетичн? оператори22.3. Ц?льова функц?я 22.4. Реал?зац?я ГА22.5. Генетичн? алгоритми й ШНМ22.5.1. Визначення синаптичних ваг22.5.2. Оптим?зац?я тополог?ї ШНМ23. ПРИКЛАДИ ЗАСТОСУВАННЯ ШНМ23.1. Синтезатор мови — NETtalk23.2. Система автоматичного керування автомоб?лем23.3. Розв?язання задач? про ком?вояжера23.4. ?дентиф?кац?я нел?н?йних динам?чних об?єкт?в23.5. Нейрокерування нел?н?йними об?єктами23.6. Кластеризац?я даних23.7. Стиснення даних23.7.1. Стиснення даних за допомогою мереж? Когонена23.7.2. Стиснення зображень за допомогою ?єрарх?чної ШНМ СМАС23.8. Ф?нансове прогнозування на основ? ШНМ23.8.1. Прогнозування ринку акц?й з використанням багатошарового персептрона23.8.2. Прогнозування ринку акц?й на основ? мереж ART23.9. Нейромережева ?нформац?йно-дов?дкова системаЛ?тератураМетка темы:Нейронные сети