Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
otvety1.doc
Скачиваний:
445
Добавлен:
14.02.2015
Размер:
12.78 Mб
Скачать

260 Различие видов и форм кредитов.

261 Различие между ликвидностью и платежеспособностью коммерческого банка?

Понятие ликвидностьбанка означает возможность банка своевременно и полно обеспечивать выполнение своих долговых и финансовых обязательств перед всеми контрагентами, что определяется наличием достаточного собственного капитала банка, оптимальным размещением и величиной средств по статьям актива и пассива баланса с учетом соответствующих сроков.

Ликвидность оценивается на основе способности банка превращать свои активы в денежные или другие платежные средства для оплаты предъявляемых обязательств в случае, если имеющихся в наличии платежных средств для этого не хватает.

Платежеспособность банка– это способность банка в должные сроки и полностью отвечать по всем своим обязательствам.

На первый взгляд, ликвидность коммерческого банка в такой трактовке не отличается от платежеспособности, т.е. способности банка ответить по своим обязательствам на конкретный момент времени (сегодняшний или вчерашний день). Но ликвидность понятие более широкое, оно включает в себя платежеспособность не только в прошлом, настоящем, но и в будущем.

Ликвидность банка лежит в основе его платежеспособности

262 Различие между целями и стратегиями организации.

Цели организации - результаты, которых стремится достичь организация, и на достижение которых направлена ее деятельность.

Стратегияорганизации - взаимосвязанный комплекс долгосрочных мер или подходов во имя укрепления жизнеспособности и мощи организации по отношению к ее конкурентам. Стратегия организации - по существу - набор правил для принятия решений, которыми организация руководствуется в своей деятельности

263 Разновидности нейронных сетей и их обучение.

Одной из первых искусственных сетей, способных к восприятию и формированию реакции на воспринятый стимул, явился PERCEPTRON Розенблатта.

Простейший классический персептрон содержит эл-ты 3 типов, назначение которых соответствует нейронам рефлекторной нейронной сети. S-элементы формируют сетчатку сенсорных клеток, принимающих двоичные сигналы от внешнего мира. Далее сигналы поступают в слой ассоциативных или A-элементов. Только ассоциативные элементы, представляющие собой формальные нейроны, выполняют нелинейную обработку информации и имеют изменяемые веса связей. R-элементы с фиксированными весами формируют сигнал реакции персептрона на входной стимул. Представленная сеть называется однослойной, т.к. имеет только 1 слой нейропроцессорных эл-тов. Однослойный персептрон хар-тся матрицей синоптических связей W от S- к A-элементам. Эл-т матрицы Wij отвечает связи, ведущей от i-го S-элемента к j-му A-элементу.

Теорема об обучении персептрона.Предложенный Ф. Розенблаттом метод обучения состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Пусть имеется набор пар векторов (x,y),=1..p, называемый обучающей выборкой. Будем называть нейронную сеть обученной на данной обучающей выборке, если при подаче на входы сети каждого вектора xна выходах получается соответствующий вектор y.

Рассмотрим иер-ую сетевую стр-ру, в которой связанные между собой нейроны объединены в несколько слоев. Межнейронные синоптические связи сети устроены т. о., что каждый нейрон на данном уровне иерархии принимает и обрабатывает сигналы от каждого нейрона более низкого уровня. Т.о., в данной сети имеется выделенное направление распространения нейроимпульсов - от вход. слоя через 1 (или несколько) скрытых слоев к выход. слою нейронов. НС такой топологии назыв-ся обобщенным многослойным персептроном.

Персептрон предст. собой сеть, сост-ю из нескольких посл-но соед-х слоев формальных нейронов МакКаллока и Питтса. На низшем уровне иерархии находится вход. слой, сост-й из сенсорных эл-тов. Далее имеются 1 или, несколько скрытых слоев. Каждый нейрон на скрытом слое имеет несколько входов, соед-х с выход. нейронов пред-го слоя или непоср-но со вход. сенсорами X1..Xn, и 1 выход. Нейрон хар-ся уник-ым вектором весовых коэфф-ов w. Веса всех нейронов слоя формируют матрицу, которую будем обозначать V или W. Функция нейрона состоит в вычислении взвешенной суммы его входов с дальнейшим нелинейным преобразованием ее в выход. сигнал.

Обучение методом обратного распространения ошибок.Для обучения многослойной сети в 1986 г. Руммельхартом и Хинтоном - алгоритм обратного распространения ошибок. Основная идея обратного распр-ния состоит в том, как получить оценку ошибки для нейронов скрытых слоев. Известные ошибки, делаемые нейронами выход. слоя, возникают вследствие неизвестных ошибок нейронов скрытых слоев. Чем больше значение синоптической связи между нейроном скрытого слоя и выход. нейроном, тем сильнее ошибка 1 влияет на ошибку 2. Следовательно, оценку ошибки эл-ов скрытых слоев можно получить, как взвешенную сумму ошибок последующих слоев. При обучении инф-ция распространяется от низших слоев иерархии к высшим, а оценки ошибок, делаемые сетью - в обратном направлении, что и отражено в названии метода.

Модель Кохоненавыполняет обобщение предъявляемой инф-ции. В результате работы НС Кохонена получается образ, представляющий собой карту распределения векторов из обучающей выборки. Т.о., в модели Кохонена выполняется решение задачи нахождения кластеров в пространстве вход. образов.

Данная сеть обучается без учителя на основе самоор-ции. По мере обучении вектора весов нейронов стремятся к центрам кластеров - групп векторов обучающей выборки. На этапе решения инф-ных задач сеть относит новый предъявленный образ к одному из сформированных кластеров, указывая тем самым категорию, к которой он принадлежит.

Сеть Кохонена, также как и сеть Липпмана-Хемминга, состоит из 1 слоя нейронов. Число входов каждого нейрона = размерности входного образа. Кол-во нейронов определяется той степенью подробности с которой требуется выполнить кластеризацию набора библ-ных образов. При достаточном кол-ве нейронов и удачных параметрах обучения НС Кохонена может не только выделить основные группы образов, но и установить "тонкую структуру" полученных кластеров. При этом близким входным образам будет соответствовать близкие карты нейронной активности.

Обучение начинается с задания случайных значений матрице связей . В дальнейшем происходит процесс самоор-ции, состоящий в модификации весов при предъявлении на вход векторов обучающей выборки. Для каждого нейрона можно определить его расстояние до вектора входа Далее выбирается нейрон m=m*, для которого это расстояниеmin. На текущем шаге обучения t будут модифицироваться только веса нейронов из окрестности нейрона m*Первоначально в окрестности любого из нейронов находятся все НС, в последствии эта окрестность сужается. В конце этапа обучения подстраиваются только веса самого ближайшего нейрона. Темп обучения(t)<1 с течением времени также уменьшается. Образы обучающей выборки предъявляются последовательно, и каждый раз происходит подстройка весов. НС Кохонена может обучаться и на искаженных версиях вход. векторов, в процессе обучения искажения, если они не носят систематический характер, сглаживаются.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]