книги / Нейронные сети для обработки информации
..pdfЭ Т А М З и М ОЗООТЗК!
$ 1Е С 1 К И |
Ш |
Е |
00Р |
К Е |
Ш |
ОР1СУМА УУУ0А\МЫ1С2А Р01.1ТЕСНМ1К1 МАН52А\МЗК1Еи
№ А К32А Ю А 2000
УДК 004.032.26
Б Б К 32 .8Ц
0 -7 5
РЕЦЕНЗЕНТ
доктор технических наук
|
|
Осовский С. |
|
|
0-7 |
$ |
Нейронные сети для обработки информации / Пер. с польского |
||
|
|
ИД. Рудннского. - |
М.: Финансы и статистика, 2004. - 344 с.: ил. |
|
|
|
181Ш 5-279-02567-4 |
||
|
|
Представлены вахпкПшнеразделытеориимасуоственных1кПро1иииостей. Основ |
||
|
|
ноевниканиеуделяетсяалгоритмамобученияк ихприменениюлая обработкиюмери- |
||
|
|
тельной информации.Даетсядетальныйобзориолнеанневажнейшихыелзловобучемм |
||
|
|
спейразличнойструктуры,иллюстрируемыечнсяе1шымнэкснериы«1пг»миспрактически |
||
|
|
подтверхдениыыирезультатами. |
||
|
|
Дляаашратов к научныхработников, интересующихсяметодамиискусственного |
||
|
|
интеллекта. Можетбытьполезнаспециалистам вобластиннформатиш,статистики,физи |
||
|
|
киитехническихдисциплин,втакжеспециалистам биомедицинскихотраслейлиний. |
||
О 1401670006-М1 256 - 2002 |
УДК004.031.16 |
|||
|
010(01)-2004 |
БВК31.(13 |
||
15ВИ 83-7207- 187-Х(Польша) |
О СорупвМ ЬуОПсупа\Уут1а>Уп1сга (ЫЛесНт |
|||
15ВМ 5-279-02567-4 (Россия) |
МФп2аптк1е<|, 2000 |
|||
С ПереводнарусскиП язык, |
||||
|
|
|
предисловиекрусскомуизданию,оформление. Издательство«Финансыи статнстикя*, 2002
Содержание |
|
|
К читателю |
9 |
|
Предисловие крусскомуш данию |
13 |
|
Предисловие |
16 |
|
1. ВВЕДЕНИЕ |
17 |
|
1.1. |
Биологические основы функционирование неГ|рои |
19 |
1.2. |
Первые модели нейронной сел I .......................................................................................... |
20 |
1.3. |
Прикладные возможности нейронных сетей |
22 |
2. МОДЕЛИНЕЙРОНОВ ИМЕТОДЫ ИХ ОБУЧЕНИЯ |
25 |
|
2.1. |
П срсеш рои ................................................................................................ |
26 |
2.2. |
Сигмоидальный нейрон |
27 |
2.3. |
Нейрон л1па‘‘адала1иГ .......................................................................................................... |
32 |
2.4. |
Инстар и оутстар Гроссбсрга................................................................................................. |
34 |
2.5. |
Нейроны типа ЧПГА . . . . ' ........................................................................................................ |
37 |
2.6. |
Модель нейрона Хсбба............................................................................................................. |
40 |
2.7. |
Стохастическая модельнейрона |
44 |
3.ОДНОНАПРАВЛЕННЫЕ МНОГОСЛОЙНЫ Е СЕТИ
СИГМ ОИДАЛЬНОГО ТИПА |
|
46 |
||
3.1. |
Однослойная с е т ь ...................................................................................................................... |
|
47 |
|
3.2. |
Многослойный перестрой . . . . ..................................................................................... |
„. |
30 |
|
|
3.2.1. |
Структура перестройкой с е т .............................................................................. |
|
30 |
|
3.2.2. |
Алгоритм обратного распространения ошибки |
|
31 |
3.2. Потоковые графы и на применение для генерации градиента.................................. |
|
55 |
||
3.4. |
Градиентные алгор1пыыобучс11ня сети |
|
60 |
|
|
3.4.1. |
Основные положения.................................................................................................. |
|
60 |
|
3.4.2. |
Алгоритм нансгорейшего сп у ск а .......................................................................... |
|
62 |
|
3.4.3. |
Алгор1гшпсрсиснной метрики |
|
63 |
|
3.4.4. |
Алгоритм Левенбергв-Мархвардта....................................................................... |
|
65 |
|
34 .5 . |
Алгоритм сопряженных градиентов.................................................................... |
|
67 |
3.3. |
Подбор коэффициента обучения.......................................................................................... |
|
6В |
|
3.6. Эвристические методы обучения сети |
|
71 |
||
|
3.6.1. |
Алгор1гтм (Зшскргор.................................................................................................... |
|
71 |
|
3.6.2. |
Алгоритм КРЛОР......................................................................................................... |
|
73 |
3.7. |
Сравнение эффективности алгоритмов обучен! |
|
73 |
|
Э.В. |
Элементы глобальной отимю ацин |
|
75 |
|
|
3.8.1. |
Алгоритм нм|гтации о т и т а |
|
79 |
|
3.8.2. |
Гснстнчсскнеалгорнтмы |
|
81 |
3.9. |
Методы 1инп1идл1паци11в есов ............................................................................................... |
|
86 |
4. |
проблемы практического пспольюилпня |
|
||
|
ИСКУССТВЕННЫ Х НЕЙРОННЫХ СЕТЕЙ |
89 |
||
|
4.1. |
Предварительный подбор архитектуры с е ж ................................................................... |
89 |
|
|
4.2. |
Подбор оптимальной архитектуры сети ............................................................................. |
92 |
|
|
|
4.2.1. |
Способность к обобщению |
92 |
|
|
4.2.2. |
Методы редукции сети с учетом чувствительности...................................... |
98 |
|
|
4.2.3. |
Методы редукции сети с нсполыованисм штрафной функции................. |
103 |
|
4.3. |
Методы нараишваниясеш |
103 |
|
|
4.4. |
Подбор обучающих вы борок ............................................................................................... |
105 |
|
|
4.5. Добавление шума в обучающие выборки |
107 |
||
|
4.6. |
Примеры использования перссптронной сети |
110 |
|
|
|
4.6.1. |
Распознавание и классификация образов |
110 |
|
|
4.6.2. |
Нейронная сеть для сжатия данных |
116 |
|
|
4.6.3. |
Идентификация динамических объектов ............................................................ |
121 |
|
|
4.6.4. |
Прогнозирование нафуэок энсргсжческой системы .................................... |
124 |
5. |
РАДИАЛЬНЫ Е НЕЙРОННЫЕ СЕТИ |
129 |
||
|
5.1. |
Матсмвжческис основы |
130 |
|
|
3.2. |
Радиальная нейронная с е т ь .................................................................................................... |
132 |
|
|
5.3. |
Методы обучения радиальных нейронных сетей ............................................................ |
137 |
5.3.1.Применение процесса самоорганизации д м уточнения параметров радиальных функций ..................................................................................................
5.3.2.Вероятностный алгорзгтм подбора параметров радиальных
функций............................................................................................................................ |
142 |
5.3.3. Гибридный алгоритм обучения радиальных сетей |
144 |
5.3.4.Алгоритмы обучения, основанные на обратном распространении
|
|
ошибки ............................................................................................................................ |
146 |
5.4. |
Пример использования радиальной сети ........................................................................ |
149 |
|
5.5. |
Методы подбора количества базисных функций |
151 |
|
|
5.5.1. |
Эвристические методы ............................................................................................. |
151 |
|
5.5.2. |
Метод ортогонализацин Грэма-Шмидта |
152 |
5.6. Сравнение радиальных и сигмоидальных сетей |
157 |
||
6. СПЕЦИАЛИЗИРОВАННЫЕ СТРУКТУРЫ НЕЙРОННЫ Х СЕТЕЙ |
159 |
||
6.1. |
Сеть каскадной корреляции Фопьиаиа |
159 |
|
6.2. |
Сеть В ол ы ср р н ........................................................................................................................... |
163 |
|
|
6.2.1. |
Структура и особенности обучения с е ж |
166 |
|
6.2.2. |
Примеры использования сети Вольтсрри |
169 |
7.РЕКУРРЕНТНЫ Е СЕТИ КАК АССОЦИАТИВНЫЕ ЗАПОМИНАЮ Щ ИЕ
УСТРОЙСТВА |
176 |
||
7.1. |
Введение ......................................................................................................................................... |
176 |
|
7.2. |
АвтоассоциажвнмсетьХопфнлда |
178 |
|
|
7 .1 1 . |
Основные зависимости .............................................................................................. |
178 |
|
7 .12 . |
Режим обучения сети Хопфилда |
180 |
|
7 .13 . |
Режим распознавания сети Хопфилда |
182 |
7.3. |
О тъ Хеннинга |
184 |
|
7.4. |
Сеть тина В А М ............................................................................................................................. |
189 |
|
|
7.4.1. |
Описание процесса функционирования сети ................................................... |
189 |
|
7.4.2. |
Модифицированный алгоритм обучения с и и ВАМ |
191 |
|
7.4.3. |
Модифицированная структура сети ВАМ .......................................................... |
192 |
Я. РЕКУРРЕНТНЫЕ СЕГИ 11Л БАЗЕ ПЕРСЕПТРОИЛ |
200 |
||
В.1. |
Введение |
200 |
|
В.2. |
Псрссггфоинля сеть с обратной связью ........................................................................... |
200 |
|
|
Я.2.1. |
Структура сети КАИР............................................................................................... |
200 |
|
Н.2.2. |
Алгоритм обучения сети КМ1.Р |
• 1202 |
|
В.2.3. |
Подбор коэффициента обучения.......................................................................... |
204 |
|
8.2.4. |
Коэффициент усиления сигнала |
204 |
|
8.2.5. |
Результаты компьютерного моделирования |
205 |
8.3. |
Рскуррен гнал сеть Эльмана................................................................................................... |
210 |
|
|
8.3.1. |
Структура сети ............................................................................................................. |
210 |
|
8.3.2. Алгоритм обучения сети Эльмана |
212 |
|
|
8.3.3. |
Обучение с учетом момента |
214 |
|
8.3.4. |
Пример компьютерного моделирования сети Эльм |
215 |
8.4. |
СепКТКЫ |
219 |
|
|
8 .4 .1. |
Структура сети и алгоритм обучения.................................................................. |
219 |
|
8.4.2. |
Результаты вычислительных экспериментов |
221 |
9. СЕТИ С САМООРГАНИЗАЦИЕЙ ИА ОСНОВЕ КОНКУРЕНЦИИ |
226 |
9.1.Отличительные особенности сстсйссамоаргв111гзацней на основе
|
конкуренции |
227 |
|
|
9.1.1. |
Меры расстояния между векторами.................................................................... |
228 |
|
9.1.2. |
Нормализация векторов............................................................................................ |
229 |
|
9.1.3. |
Проблема мертвых исПронов |
230 |
9.2. Алгоритмы обучения сетей с самоорганизацией |
231 |
||
|
9.2.1. |
Алгоритм Кохоксна |
2ЭЭ |
|
9.2.2. |
Алгоритм нейронного таза |
2ЭЭ |
|
9.2.3. |
Сравнение алгоритмов самоорганизации |
235 |
9.3. |
Сеть восстановления одноилвумерных данных |
238 |
|
9.4. Воссш<овлсинеСэммо1и |
241 |
||
9.5. |
Применение сетей с самооргаинзанисП |
242 |
|
|
9.5.1. |
Компрессияданных .................................................................................................... |
243 |
|
9 .5 .1 |
Диагностирование нсисправностсП оборудования ........................................ |
246 |
|
9.5.3. |
Краткосрочное прогнозирование нагрузок энергетической системы................. |
249 |
9.6. |
Гибридная е с т ь ........................................................................................................................... |
252 |
|
10. СЕТИ С САМООРГАНИЗАЦИЕЙ КОРРЕЛЯЦИОННОГО ТИПА |
257 |
||
10.1. Энергетическая функция корреляционных сетей |
257 |
||
10.2. Нейронные сети РСА |
259 |
||
|
10.2.1. Математическое введение |
259 |
|
|
10.2.2. Определение первого главного компонентв |
264 |
|
|
10.2.3. Алгоритмы определения множества главных компонентов |
265 |
|
10.3. Нейронные 1СА-ссл1 Хсролыв-Джупсна |
267 |
||
|
10.3.1. Предварительные пояснения.................................................................................... |
267 |
|
|
10.3.2. Статистическая независимость сигналов |
268 |
|
|
10.3.3. Рекуррентная структура разделяюще!) сети ..................................................... |
269 |
|
|
10.3.4. Алгоритм Херольта-Джупенв для рекурренткоП с е т и ................................ |
270 |
|
|
10.3.5. Обобщенный алгортпм обучения рекурренлюй сети |
272 |
|
|
10.3.6. Однонаправленная сеть для рагпеле1т я сигналов |
274 |
11. МАТЕМАТИЧЕСКИЕ ОСНОВЫ НЕЧЕТКИХ СИСТЕМ |
279 |
11.1. Оперши™ ил нечетких множествах |
281 |
11.2. Меры нечеткости нечетких множеств |
283 |
11.3. Нсчеткостьивероятность |
284 |
114. Нечеткиеправила вывела.................................................................... |
286 |
11.5. Системы нечеткоговыводе Мамдени-Зале |
287 |
11.5 .1. Фуэзкфихатор................................................................................................................. |
290 |
11.5.2.Дефуэзификатор........................................................................ |
293 |
11.5.3. Модель Мамдани-Заде как универсальны!! аппроксиматор |
294 |
11.6. Модель вывода Таквги-Сугено-Канга............................................................................... |
295 |
12. НЕЧЕТКИЕ НЕЙРОННЫЕ СЕТИ |
299 |
12.1. Структура нечеткой сета Т8К |
299 |
12.2. Структура с е л 1 Ванга-М сидел*........................................................................................... |
303 |
12.3. Гибридный алгоритм обучения нечетких сетей ............................................................ |
304 |
12.4. Примсне11нсалгор1пмасаиоорган1Ш шшлляобучс|1>инечспа>йсеш |
308 |
12.4.1. Алгор|гтм нечеткой самоорганизации С -тгаш |
308 |
12.4.2. Алгоритм пикового группирования..................................................................... |
310 |
12.4.3. Алгоритм разностного группирования.............................................................. |
312 |
12.4.4. Алгоритм нечетной самоорганизации Густвфсона-Кесссля |
313 |
12.4.5. Сеть с нечеткой самоорганизацией в гибридной структуре |
318 |
12.4.6. Примеры реализации нечетких с е т е й ................................................................... |
321 |
123. Адаптивный алгор|гтм самооргашпацшг нечеткой сети |
327 |
Литература.................................................................................................... |
330 |
Предметный указатель.................................................................................... |
340 |
К читателю
Основные тенденции раэвтия кибернетики в начале третьего тысячелетня можно выразить двудм словами: бнологнзацил н гибридтация. Под биологшщией чаще осего понимается построение к исследование моделей поведения сложных объектов п способов управления ими на основе имитации механизмов, реализованных Природой в живых существах. Такой подход обусловлен тем фпктом, что многие так называемые "классические’' методы обработки информации воспринимаются в настоящее время кок простейшие реализации универсальных способов функционирования биологических объектов. В качестве примеров можно привести последовательные алгоритмы фон Неймана (вырожденный случай параллельной обработки информации), а также двоичную логику (частный случаи нечеткой логики). С другой стороны, стремительное уосличсинс вычислительных мощностей и развитие математического аппарата позволили подступиться к решению таких задач, размерность которых еще 5 - 1 0 лет назад была непреодолимым барьером для исследователя.
Гибридизация, в свою очередь, состоит в совместном применении различных методов и/или моделей для обработки информации об одном и том же объекте. Парадигма такого подхода основана на согласии с тем, что любая сколь угодно сложная искусственная модель реального объекта всегда будет примитивнее и проще оригинала, и только многоаспектное его изучение с последующей интеграцией получаемых результатов позволит обрести необходимые знания или приблизиться к оптимальному решению. Гибридный подход давно и эффективно используется в научных исследованиях (вспомним понятия корпускулярноволнового дуализма, микро- и макроэкономические исследования одних и тех же хозяйственных систем и т.п.).
Предлагаемая вниманию уважаемого читателя книга видного польского ученого С. Осовского удачно иллюстрирует названные тенденции в одной из наиболее динамично развивающихся областей современной теории интел лектуальных вычислений (англ.: сожрШаНопа! йЧеШ^епсе), связанной с построением и применением искусственных нейронных сетей. Сформированные в рамках этого направления многослойные сетевые модели, в качестве прототипа которых используются структуры и механизмы функционирования биоло гических нервных систем, все более серьезно рассматриваются в качестве методологического базиса для создания сверхскоростных технических устройств параллельной обработки информации.
Представленный в книге материал можно рассматривать с трех точек зрения. Во-первых, это своего ролл справочник по наиболее важным моделям нейронных сетей, написанный очень точным и корректным с математической точки зрения языком. Обширная библиография дополни тельно обогащает семантику книги, превращая ее о своего родл путево дитель по первоисточникам. Во-вторых, это конспект лекций, стиль и характер которого свидетельствуют о богатом педагогическом опыте и мастерстве автора - профессора Варшавского политехнического университета. Большое количество примеров практической реализации сетей н их летальный анализ делают настоящее издание незаменимым учебным пособием для всех изучающих, преподающих и применяющих теорию искусственных нейронных сетей. В-третьих, книга содержит результаты собственной научной деятельности автора, который в силу личной скромности умалчивает о том, что многие описываемые в ней методы, структуры и алгоритмы (в частности, методы генерации граднопа в многослойной е с т на основе потоковых и сопряженных графов, метол обучения нсрсентрониой сети но алгор1пму переменной мет рики ВРС8 с направленной минимизацией, гибридный, алгоритм обучения радиальных сетей, алгоритм обучения многослойного перестроив с обратной связью КМЬР, гибридная сеть с самоорганизующейся и МЬР-хомпонентой, структура и гибридный алгоритм обучения нечеткой сети Т8К. с самоорганизацией нейронов, а также многие другие) известны мировой
научной общественкости по имени их создателя |
С. Осовского. |
В разделе I обсуждаются биологические |
основы фуикиконнрово- |
ння нейрона, базовая модель нейрона МакКвллокп-Питса, а также виды межнейроиных взаимодействий, позволяющие строить искусственную нейронную есть.
В разделе 2 представлены наиболее широко применяемые в настоящее время модели нейронов, о том числе модель лерселтрона, модель сигмоидального нейрона, адаланн, модель Хебба, мистер и оутстар, а также модель \УТА. Рассматриваются важнейшие алгоритмы обучения, основинныс как на обучении с учителем, так л на самоорганизации.
Раздел 3 посвящен однонаправленным сигмоидальным сетям, чаще □сего применяющимся на практике. Обсуждаются градиентные алгоритмы обучения, реализующие метод обратного распространения ошибки для ее минимизации при генерации векторе градиента. Представлены элементы глобальной оптимизации методами имитации отжига и генетических алго ритмов.
В разделе 4 рассматриваются проблемы практического использованн неоднородных сетей, в том числе выбора оптимальной архитектуры сети, принципов формирования обучающих выборок и методов повышения эффективности обобщения. Представлены примеры использования таких сетей для задач распознавания и классификации образов, сжатия сигналов, иден тификации динамических объектов и прогнозирования временных рядов.
Раздел |
5 посвящен сетям с |
радиальными базисными функциями |
(ЕШР). Рассматриваются типовые сетевые структуры и алгоритмы обучения, |
||
основанные на обучении о учителе»! и на самоорганизации конкурирующих |
||
нейронов. |
|
|
О |
разделе б описываются |
специализированные сети, структура которых |
проектируется исходя из необходимости достижения конкретных целей. К ним откосятся сеть каскадной корреляции Фальмана и сеть Вольтсрри. Особенно интересна неоднородная структура сети Вольтсрри, предназначенной для адаптивной обработки сигналов в реальном времени.
В разделе 7 содержатся сведения о рекуррентных сетях, исполь зуемых в качестве ассоциативных запоминающих устройств. Представлено описание структур н методов обучения сетей Хонфилда, Хсммиига и сети типа ВАМ. Их функционирование иллюстрируется на численных примерах.
Раздел 8 посвящен рекуррентным сетям, построенным на неод нородных псрссптронах, в частности рассматриваются сеть К.МЬР, сеть Эльмана и сеть &Т1Ш Внльямса-Зиснера. Теоретические рассуждения под крепляются многочисленными примерами компьютерного моделирования этих сетей.
В рпзделе 9 обсуждаются сети с самоорганизацией на основе конкуренции нейронов. Приводятся описания алгоритмов обучения таких сетей и принципы их применения для решения задач распознавания и классификации образов, сжатия сигналов и прогнозирования временных рядов.
В разделе 10 рассматриваются вопросы корреляционного обучения (по Хеббу). Представлены два вида нейронных сетей, в которых реализовано обобщенное правило Хсбба: сети РСА, осуществляющие анализ таимых компо нентов, и сети 1СА Хсромьта-Джуттсна для слепого разделения сигналов. Обсуждаются важнейшие алгоритмы обучения этих сетей и принципы их практического использования.
Разделы 11 и 12 посвящены новейшим достижениям в теории нейронных сетей, связанным с применением нечеткой лотки. В одиннадцатом разделе представлены математические основы нечетких систем, необходимые для понимания деятельности таких сетей. В двенадцатом разделе рассматриваются базовые структуры и принципы функционирования нечетких сетей, использующих для адоптации периметров методы обучения как с учителем, так и на основе самоорглииэпцни.
Несколько слов о применяемой термипологий. Причины лингвисти ческой неоднозначности, которой грешат многие русскоязычные публикации, кроются в разрозненности отечественных научных центров, занимающихся исследованием и применением искусственных нейронных сетей, а также в отсутствии русскоязычного периодического издания национального масштаба, целиком посвященного этой проблематике и способного формировать