Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
СПРАВОЧНЫЙ МАТЕРИАЛ ДЛЯ ВСТУПИТЕЛЬНЫХ ЭКЗАМЕНОВ В АСПИРАНТУРУ ПО ПРОФИЛЮ ОБУЧЕНИЯ «ИСКУССВТЕННЫЙ ИНТЕЛЛЕКТ И МАШИННОЕ ОБУЧЕНИЕ».docx
Скачиваний:
46
Добавлен:
04.09.2023
Размер:
6.41 Mб
Скачать
  1. Цикл обучения. Понятия обучающей и тестовой выборки. Отложенная выборка. Кросс-валидация. Понятия недообучения и переобучения. Дилемма смещения и разброса. Размерность Вапника-Червоненкиса.

Цикл обучения. Цикл обучения - это итерационный процесс обучения модели машинного обучения, оценки ее эффективности и внесения улучшений на основе результатов оценки. Обычно он включает в себя следующие этапы: сбор данных, предварительная обработка данных, выбор модели, обучение модели, оценка модели и уточнение модели.

Понятия обучающей и тестовой выборки. Обучение и тестирование на выборках – это техники, используемые для разделения доступного набора данных на две подвыборки: обучающий набор и тестовый набор.

Случайная выборка – это часто используемая техника, при которой набор данных случайным образом разделяется на обучающий набор и тестовый набор. Этот подход гарантирует, что оба набора являются представительными для всего набора данных и снижает риск введения смещения.

Стратифицированная выборка – это другая техника, которая обеспечивает схожее распределение классов или меток в обучающем и тестовом наборах с общим набором данных. Это особенно полезно при работе с несбалансированными наборами данных, где некоторые классы представлены недостаточно.

Отложенная выборка. Отложенная выборка – это техника, при которой модель обучается на небольшом начальном подмножестве данных, а затем постепенно обучается на дополнительных точках данных с течением времени.

Отложенная выборка полезна при работе с большими наборами данных, которые невозможно обработать сразу или когда новые данные становятся доступными со временем (инкрементное обучение). Начиная с небольшого начального подмножества, модель может быстро обучаться и развертываться по мере поступления новых данных.

Такой подход позволяет использовать приложения в реальном времени или практически в реальном времени.

Кросс-валидация. Общие типы перекрестной проверки включают k-кратную перекрестную проверку, стратифицированную k-кратную перекрестную проверку и перекрестную проверку с выкидыванием одного объекта. Выбор конкретной техники перекрестной проверки зависит от таких факторов, как размер набора данных, распределение классов и доступные вычислительные ресурсы.

k-кратная перекрестная проверка – это пример техники, который включает разделение набора данных на k равных по размеру блоков. Модель обучается на блоках и оценивается на оставшемся блоке. Этот процесс повторяется k раз, при этом каждый блок служит тестовым набором один раз. k-кратная перекрестная проверка обеспечивает более надежную оценку производительности модели с использованием различных комбинаций обучающих и тестовых данных.

Перекрестная проверка особенно полезна, когда набор данных ограничен или когда требуется надежно оценить производительность модели. Она помогает выявить проблемы, такие как переобучение или недообучение, и помогает выбрать подходящие гиперпараметры или архитектуру модели.

Понятия недообучения и переобучения. Недообучение происходит, когда модель не улавливает основные закономерности или взаимосвязи в данных. Это может быть вызвано использованием простого алгоритма, который не может адекватно представить сложность проблемы, или недостаточным количеством обучающих данных. Недообученные модели часто проявляется как высокое смещение.

Для решения проблемы недообучения могут быть рассмотрены более сложные модели, такие как глубокие нейронные сети или ансамблевые методы. Увеличение объема обучающих данных или улучшение техник предварительной обработки данных также может помочь улавливать более тонкие закономерности.

Переобучение, также известное как переподгонка, происходит, когда модель машинного обучения становится слишком сложной и начинает запоминать обучающие данные вместо изучения общих закономерностей.

Переобучение приводит к отличной производительности на обучающем наборе, но плохой производительности на новых данных. Модель фактически "подгоняется" под обучающие данные, захватывая шум или выбросы вместо значимых закономерностей. Переобученные модели часто проявляют низкое смещение, но высокую дисперсию.

Для решения проблемы переобучения можно использовать такие техники, как регуляризация, которая штрафует сложные модели и предотвращает их переподгонку. Увеличение размера обучающего набора или применение техник, таких как прореживание в нейронных сетях, также помогает снизить переобучение.

Дилемма смещения и разброса. Смещение относится к ошибке, вносимой при аппроксимации проблемы реального мира с помощью упрощенной модели. Оно представляет тенденцию модели постоянно отклоняться от истинных значений. Модели с высоким смещением часто слишком просты и не могут улавливать сложные закономерности или взаимосвязи в данных.

Дисперсия, с другой стороны, относится к чувствительности модели к случайным флуктуациям в обучающих данных. Она представляет способность модели адаптироваться к различным вариациям данных. Модели с высокой дисперсией часто слишком сложны и могут запоминать шум или выбросы вместо общих закономерностей.

Компромисс между смещением и дисперсией подразумевает, что уменьшение смещения может увеличить дисперсию и наоборот. Он может быт достигнут с помощью таких техник, как регуляризация, применение ансамблевых методов или выбор лучшей архитектуры модели и настройка ее гиперпараметров.

Размерность Вапника-Червоненкиса. Размерность Вапника-Червоненкиса – это концепция из статистической теории обучения, которая измеряет способность модели машинного обучения подходить к различным закономерностям. Более высокая размерность Вапника-Червоненкиса предоставляет информацию о более высокой сложности модели и ее способности учиться на основе данных, но также и о склонности к переобучению.

Размерность Вапника-Червоненкиса представляет собой максимальное количество точек, которые модель может разделить всеми возможными способами. Например, для линейного классификатора на плоскости размерность Вапника-Червоненкиса равна 3, или в общем случае для мерного пространства .