Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Нейронные сети для обработки информации

..pdf
Скачиваний:
6
Добавлен:
12.11.2023
Размер:
14.05 Mб
Скачать

Э Т А М З и М ОЗООТЗК!

$ 1Е С 1 К И

Ш

Е

00Р

К Е

Ш

ОР1СУМА УУУ0А\МЫ1С2А Р01.1ТЕСНМ1К1 МАН52А\МЗК1Еи

№ А К32А Ю А 2000

УДК 004.032.26

Б Б К 32 .8Ц

0 -7 5

РЕЦЕНЗЕНТ

доктор технических наук

 

 

Осовский С.

 

0-7

$

Нейронные сети для обработки информации / Пер. с польского

 

 

ИД. Рудннского. -

М.: Финансы и статистика, 2004. - 344 с.: ил.

 

 

181Ш 5-279-02567-4

 

 

Представлены вахпкПшнеразделытеориимасуоственных1кПро1иииостей. Основ­

 

 

ноевниканиеуделяетсяалгоритмамобученияк ихприменениюлая обработкиюмери-

 

 

тельной информации.Даетсядетальныйобзориолнеанневажнейшихыелзловобучемм

 

 

спейразличнойструктуры,иллюстрируемыечнсяе1шымнэкснериы«1пг»миспрактически

 

 

подтверхдениыыирезультатами.

 

 

Дляаашратов к научныхработников, интересующихсяметодамиискусственного

 

 

интеллекта. Можетбытьполезнаспециалистам вобластиннформатиш,статистики,физи­

 

 

киитехническихдисциплин,втакжеспециалистам биомедицинскихотраслейлиний.

О 1401670006-М1 256 - 2002

УДК004.031.16

 

010(01)-2004

БВК31.(13

15ВИ 83-7207- 187-Х(Польша)

О СорупвМ ЬуОПсупа\Уут1а>Уп1сга (ЫЛесНт

15ВМ 5-279-02567-4 (Россия)

МФп2аптк1е<|, 2000

С ПереводнарусскиП язык,

 

 

 

предисловиекрусскомуизданию,оформление. Издательство«Финансыи статнстикя*, 2002

Содержание

 

К читателю

9

Предисловие крусскомуш данию

13

Предисловие

16

1. ВВЕДЕНИЕ

17

1.1.

Биологические основы функционирование неГ|рои

19

1.2.

Первые модели нейронной сел I ..........................................................................................

20

1.3.

Прикладные возможности нейронных сетей

22

2. МОДЕЛИНЕЙРОНОВ ИМЕТОДЫ ИХ ОБУЧЕНИЯ

25

2.1.

П срсеш рои ................................................................................................

26

2.2.

Сигмоидальный нейрон

27

2.3.

Нейрон л1па‘‘адала1иГ ..........................................................................................................

32

2.4.

Инстар и оутстар Гроссбсрга.................................................................................................

34

2.5.

Нейроны типа ЧПГА . . . . ' ........................................................................................................

37

2.6.

Модель нейрона Хсбба.............................................................................................................

40

2.7.

Стохастическая модельнейрона

44

3.ОДНОНАПРАВЛЕННЫЕ МНОГОСЛОЙНЫ Е СЕТИ

СИГМ ОИДАЛЬНОГО ТИПА

 

46

3.1.

Однослойная с е т ь ......................................................................................................................

 

47

3.2.

Многослойный перестрой . . . . .....................................................................................

„.

30

 

3.2.1.

Структура перестройкой с е т ..............................................................................

 

30

 

3.2.2.

Алгоритм обратного распространения ошибки

 

31

3.2. Потоковые графы и на применение для генерации градиента..................................

 

55

3.4.

Градиентные алгор1пыыобучс11ня сети

 

60

 

3.4.1.

Основные положения..................................................................................................

 

60

 

3.4.2.

Алгоритм нансгорейшего сп у ск а ..........................................................................

 

62

 

3.4.3.

Алгор1гшпсрсиснной метрики

 

63

 

3.4.4.

Алгоритм Левенбергв-Мархвардта.......................................................................

 

65

 

34 .5 .

Алгоритм сопряженных градиентов....................................................................

 

67

3.3.

Подбор коэффициента обучения..........................................................................................

 

3.6. Эвристические методы обучения сети

 

71

 

3.6.1.

Алгор1гтм (Зшскргор....................................................................................................

 

71

 

3.6.2.

Алгоритм КРЛОР.........................................................................................................

 

73

3.7.

Сравнение эффективности алгоритмов обучен!

 

73

Э.В.

Элементы глобальной отимю ацин

 

75

 

3.8.1.

Алгоритм нм|гтации о т и т а

 

79

 

3.8.2.

Гснстнчсскнеалгорнтмы

 

81

3.9.

Методы 1инп1идл1паци11в есов ...............................................................................................

 

86

4.

проблемы практического пспольюилпня

 

 

ИСКУССТВЕННЫ Х НЕЙРОННЫХ СЕТЕЙ

89

 

4.1.

Предварительный подбор архитектуры с е ж ...................................................................

89

 

4.2.

Подбор оптимальной архитектуры сети .............................................................................

92

 

 

4.2.1.

Способность к обобщению

92

 

 

4.2.2.

Методы редукции сети с учетом чувствительности......................................

98

 

 

4.2.3.

Методы редукции сети с нсполыованисм штрафной функции.................

103

 

4.3.

Методы нараишваниясеш

103

 

4.4.

Подбор обучающих вы борок ...............................................................................................

105

 

4.5. Добавление шума в обучающие выборки

107

 

4.6.

Примеры использования перссптронной сети

110

 

 

4.6.1.

Распознавание и классификация образов

110

 

 

4.6.2.

Нейронная сеть для сжатия данных

116

 

 

4.6.3.

Идентификация динамических объектов ............................................................

121

 

 

4.6.4.

Прогнозирование нафуэок энсргсжческой системы ....................................

124

5.

РАДИАЛЬНЫ Е НЕЙРОННЫЕ СЕТИ

129

 

5.1.

Матсмвжческис основы

130

 

3.2.

Радиальная нейронная с е т ь ....................................................................................................

132

 

5.3.

Методы обучения радиальных нейронных сетей ............................................................

137

5.3.1.Применение процесса самоорганизации д м уточнения параметров радиальных функций ..................................................................................................

5.3.2.Вероятностный алгорзгтм подбора параметров радиальных

функций............................................................................................................................

142

5.3.3. Гибридный алгоритм обучения радиальных сетей

144

5.3.4.Алгоритмы обучения, основанные на обратном распространении

 

 

ошибки ............................................................................................................................

146

5.4.

Пример использования радиальной сети ........................................................................

149

5.5.

Методы подбора количества базисных функций

151

 

5.5.1.

Эвристические методы .............................................................................................

151

 

5.5.2.

Метод ортогонализацин Грэма-Шмидта

152

5.6. Сравнение радиальных и сигмоидальных сетей

157

6. СПЕЦИАЛИЗИРОВАННЫЕ СТРУКТУРЫ НЕЙРОННЫ Х СЕТЕЙ

159

6.1.

Сеть каскадной корреляции Фопьиаиа

159

6.2.

Сеть В ол ы ср р н ...........................................................................................................................

163

 

6.2.1.

Структура и особенности обучения с е ж

166

 

6.2.2.

Примеры использования сети Вольтсрри

169

7.РЕКУРРЕНТНЫ Е СЕТИ КАК АССОЦИАТИВНЫЕ ЗАПОМИНАЮ Щ ИЕ

УСТРОЙСТВА

176

7.1.

Введение .........................................................................................................................................

176

7.2.

АвтоассоциажвнмсетьХопфнлда

178

 

7 .1 1 .

Основные зависимости ..............................................................................................

178

 

7 .12 .

Режим обучения сети Хопфилда

180

 

7 .13 .

Режим распознавания сети Хопфилда

182

7.3.

О тъ Хеннинга

184

7.4.

Сеть тина В А М .............................................................................................................................

189

 

7.4.1.

Описание процесса функционирования сети ...................................................

189

 

7.4.2.

Модифицированный алгоритм обучения с и и ВАМ

191

 

7.4.3.

Модифицированная структура сети ВАМ ..........................................................

192

Я. РЕКУРРЕНТНЫЕ СЕГИ 11Л БАЗЕ ПЕРСЕПТРОИЛ

200

В.1.

Введение

200

В.2.

Псрссггфоинля сеть с обратной связью ...........................................................................

200

 

Я.2.1.

Структура сети КАИР...............................................................................................

200

 

Н.2.2.

Алгоритм обучения сети КМ1.Р

• 1202

 

В.2.3.

Подбор коэффициента обучения..........................................................................

204

 

8.2.4.

Коэффициент усиления сигнала

204

 

8.2.5.

Результаты компьютерного моделирования

205

8.3.

Рскуррен гнал сеть Эльмана...................................................................................................

210

 

8.3.1.

Структура сети .............................................................................................................

210

 

8.3.2. Алгоритм обучения сети Эльмана

212

 

8.3.3.

Обучение с учетом момента

214

 

8.3.4.

Пример компьютерного моделирования сети Эльм

215

8.4.

СепКТКЫ

219

 

8 .4 .1.

Структура сети и алгоритм обучения..................................................................

219

 

8.4.2.

Результаты вычислительных экспериментов

221

9. СЕТИ С САМООРГАНИЗАЦИЕЙ ИА ОСНОВЕ КОНКУРЕНЦИИ

226

9.1.Отличительные особенности сстсйссамоаргв111гзацней на основе

 

конкуренции

227

 

9.1.1.

Меры расстояния между векторами....................................................................

228

 

9.1.2.

Нормализация векторов............................................................................................

229

 

9.1.3.

Проблема мертвых исПронов

230

9.2. Алгоритмы обучения сетей с самоорганизацией

231

 

9.2.1.

Алгоритм Кохоксна

2ЭЭ

 

9.2.2.

Алгоритм нейронного таза

2ЭЭ

 

9.2.3.

Сравнение алгоритмов самоорганизации

235

9.3.

Сеть восстановления одноилвумерных данных

238

9.4. Воссш<овлсинеСэммо1и

241

9.5.

Применение сетей с самооргаинзанисП

242

 

9.5.1.

Компрессияданных ....................................................................................................

243

 

9 .5 .1

Диагностирование нсисправностсП оборудования ........................................

246

 

9.5.3.

Краткосрочное прогнозирование нагрузок энергетической системы.................

249

9.6.

Гибридная е с т ь ...........................................................................................................................

252

10. СЕТИ С САМООРГАНИЗАЦИЕЙ КОРРЕЛЯЦИОННОГО ТИПА

257

10.1. Энергетическая функция корреляционных сетей

257

10.2. Нейронные сети РСА

259

 

10.2.1. Математическое введение

259

 

10.2.2. Определение первого главного компонентв

264

 

10.2.3. Алгоритмы определения множества главных компонентов

265

10.3. Нейронные 1СА-ссл1 Хсролыв-Джупсна

267

 

10.3.1. Предварительные пояснения....................................................................................

267

 

10.3.2. Статистическая независимость сигналов

268

 

10.3.3. Рекуррентная структура разделяюще!) сети .....................................................

269

 

10.3.4. Алгоритм Херольта-Джупенв для рекурренткоП с е т и ................................

270

 

10.3.5. Обобщенный алгортпм обучения рекурренлюй сети

272

 

10.3.6. Однонаправленная сеть для рагпеле1т я сигналов

274

11. МАТЕМАТИЧЕСКИЕ ОСНОВЫ НЕЧЕТКИХ СИСТЕМ

279

11.1. Оперши™ ил нечетких множествах

281

11.2. Меры нечеткости нечетких множеств

283

11.3. Нсчеткостьивероятность

284

114. Нечеткиеправила вывела....................................................................

286

11.5. Системы нечеткоговыводе Мамдени-Зале

287

11.5 .1. Фуэзкфихатор.................................................................................................................

290

11.5.2.Дефуэзификатор........................................................................

293

11.5.3. Модель Мамдани-Заде как универсальны!! аппроксиматор

294

11.6. Модель вывода Таквги-Сугено-Канга...............................................................................

295

12. НЕЧЕТКИЕ НЕЙРОННЫЕ СЕТИ

299

12.1. Структура нечеткой сета Т8К

299

12.2. Структура с е л 1 Ванга-М сидел*...........................................................................................

303

12.3. Гибридный алгоритм обучения нечетких сетей ............................................................

304

12.4. Примсне11нсалгор1пмасаиоорган1Ш шшлляобучс|1>инечспа>йсеш

308

12.4.1. Алгор|гтм нечеткой самоорганизации С -тгаш

308

12.4.2. Алгоритм пикового группирования.....................................................................

310

12.4.3. Алгоритм разностного группирования..............................................................

312

12.4.4. Алгоритм нечетной самоорганизации Густвфсона-Кесссля

313

12.4.5. Сеть с нечеткой самоорганизацией в гибридной структуре

318

12.4.6. Примеры реализации нечетких с е т е й ...................................................................

321

123. Адаптивный алгор|гтм самооргашпацшг нечеткой сети

327

Литература....................................................................................................

330

Предметный указатель....................................................................................

340

К читателю

Основные тенденции раэвтия кибернетики в начале третьего тысячелетня можно выразить двудм словами: бнологнзацил н гибридтация. Под биологшщией чаще осего понимается построение к исследование моделей поведения сложных объектов п способов управления ими на основе имитации механизмов, реализованных Природой в живых существах. Такой подход обусловлен тем фпктом, что многие так называемые "классические’' методы обработки информации воспринимаются в настоящее время кок простейшие реализации универсальных способов функционирования биологических объектов. В качестве примеров можно привести последовательные алгоритмы фон Неймана (вырожденный случай параллельной обработки информации), а также двоичную логику (частный случаи нечеткой логики). С другой стороны, стремительное уосличсинс вычислительных мощностей и развитие математического аппарата позволили подступиться к решению таких задач, размерность которых еще 5 - 1 0 лет назад была непреодолимым барьером для исследователя.

Гибридизация, в свою очередь, состоит в совместном применении различных методов и/или моделей для обработки информации об одном и том же объекте. Парадигма такого подхода основана на согласии с тем, что любая сколь угодно сложная искусственная модель реального объекта всегда будет примитивнее и проще оригинала, и только многоаспектное его изучение с последующей интеграцией получаемых результатов позволит обрести необходимые знания или приблизиться к оптимальному решению. Гибридный подход давно и эффективно используется в научных исследованиях (вспомним понятия корпускулярноволнового дуализма, микро- и макроэкономические исследования одних и тех же хозяйственных систем и т.п.).

Предлагаемая вниманию уважаемого читателя книга видного польского ученого С. Осовского удачно иллюстрирует названные тенденции в одной из наиболее динамично развивающихся областей современной теории интел­ лектуальных вычислений (англ.: сожрШаНопа! йЧеШ^епсе), связанной с построением и применением искусственных нейронных сетей. Сформированные в рамках этого направления многослойные сетевые модели, в качестве прототипа которых используются структуры и механизмы функционирования биоло­ гических нервных систем, все более серьезно рассматриваются в качестве методологического базиса для создания сверхскоростных технических устройств параллельной обработки информации.

Представленный в книге материал можно рассматривать с трех точек зрения. Во-первых, это своего ролл справочник по наиболее важным моделям нейронных сетей, написанный очень точным и корректным с математической точки зрения языком. Обширная библиография дополни­ тельно обогащает семантику книги, превращая ее о своего родл путево­ дитель по первоисточникам. Во-вторых, это конспект лекций, стиль и характер которого свидетельствуют о богатом педагогическом опыте и мастерстве автора - профессора Варшавского политехнического университета. Большое количество примеров практической реализации сетей н их летальный анализ делают настоящее издание незаменимым учебным пособием для всех изучающих, преподающих и применяющих теорию искусственных нейронных сетей. В-третьих, книга содержит результаты собственной научной деятельности автора, который в силу личной скромности умалчивает о том, что многие описываемые в ней методы, структуры и алгоритмы (в частности, методы генерации граднопа в многослойной е с т на основе потоковых и сопряженных графов, метол обучения нсрсентрониой сети но алгор1пму переменной мет­ рики ВРС8 с направленной минимизацией, гибридный, алгоритм обучения радиальных сетей, алгоритм обучения многослойного перестроив с обратной связью КМЬР, гибридная сеть с самоорганизующейся и МЬР-хомпонентой, структура и гибридный алгоритм обучения нечеткой сети Т8К. с самоорганизацией нейронов, а также многие другие) известны мировой

научной общественкости по имени их создателя

С. Осовского.

В разделе I обсуждаются биологические

основы фуикиконнрово-

ння нейрона, базовая модель нейрона МакКвллокп-Питса, а также виды межнейроиных взаимодействий, позволяющие строить искусственную нейронную есть.

В разделе 2 представлены наиболее широко применяемые в настоящее время модели нейронов, о том числе модель лерселтрона, модель сигмоидального нейрона, адаланн, модель Хебба, мистер и оутстар, а также модель \УТА. Рассматриваются важнейшие алгоритмы обучения, основинныс как на обучении с учителем, так л на самоорганизации.

Раздел 3 посвящен однонаправленным сигмоидальным сетям, чаще □сего применяющимся на практике. Обсуждаются градиентные алгоритмы обучения, реализующие метод обратного распространения ошибки для ее минимизации при генерации векторе градиента. Представлены элементы глобальной оптимизации методами имитации отжига и генетических алго­ ритмов.

В разделе 4 рассматриваются проблемы практического использованн неоднородных сетей, в том числе выбора оптимальной архитектуры сети, принципов формирования обучающих выборок и методов повышения эффективности обобщения. Представлены примеры использования таких сетей для задач распознавания и классификации образов, сжатия сигналов, иден­ тификации динамических объектов и прогнозирования временных рядов.

Раздел

5 посвящен сетям с

радиальными базисными функциями

(ЕШР). Рассматриваются типовые сетевые структуры и алгоритмы обучения,

основанные на обучении о учителе»! и на самоорганизации конкурирующих

нейронов.

 

 

О

разделе б описываются

специализированные сети, структура которых

проектируется исходя из необходимости достижения конкретных целей. К ним откосятся сеть каскадной корреляции Фальмана и сеть Вольтсрри. Особенно интересна неоднородная структура сети Вольтсрри, предназначенной для адаптивной обработки сигналов в реальном времени.

В разделе 7 содержатся сведения о рекуррентных сетях, исполь­ зуемых в качестве ассоциативных запоминающих устройств. Представлено описание структур н методов обучения сетей Хонфилда, Хсммиига и сети типа ВАМ. Их функционирование иллюстрируется на численных примерах.

Раздел 8 посвящен рекуррентным сетям, построенным на неод­ нородных псрссптронах, в частности рассматриваются сеть К.МЬР, сеть Эльмана и сеть &Т1Ш Внльямса-Зиснера. Теоретические рассуждения под­ крепляются многочисленными примерами компьютерного моделирования этих сетей.

В рпзделе 9 обсуждаются сети с самоорганизацией на основе конкуренции нейронов. Приводятся описания алгоритмов обучения таких сетей и принципы их применения для решения задач распознавания и классификации образов, сжатия сигналов и прогнозирования временных рядов.

В разделе 10 рассматриваются вопросы корреляционного обучения (по Хеббу). Представлены два вида нейронных сетей, в которых реализовано обобщенное правило Хсбба: сети РСА, осуществляющие анализ таимых компо­ нентов, и сети 1СА Хсромьта-Джуттсна для слепого разделения сигналов. Обсуждаются важнейшие алгоритмы обучения этих сетей и принципы их практического использования.

Разделы 11 и 12 посвящены новейшим достижениям в теории нейронных сетей, связанным с применением нечеткой лотки. В одиннадцатом разделе представлены математические основы нечетких систем, необходимые для понимания деятельности таких сетей. В двенадцатом разделе рассматриваются базовые структуры и принципы функционирования нечетких сетей, использующих для адоптации периметров методы обучения как с учителем, так и на основе самоорглииэпцни.

Несколько слов о применяемой термипологий. Причины лингвисти­ ческой неоднозначности, которой грешат многие русскоязычные публикации, кроются в разрозненности отечественных научных центров, занимающихся исследованием и применением искусственных нейронных сетей, а также в отсутствии русскоязычного периодического издания национального масштаба, целиком посвященного этой проблематике и способного формировать