- •Линейные пространства векторов. Скалярное произведение. Понятие базиса и линейной независимости элементов линейного пространства. Преобразования базиса.
- •Определение матрицы. Операции с матрицами (умножение на скаляр, сложение, умножение матриц, транспонирование матриц). Обратная матрица и методы ее получения. Функции от матриц.
- •Производные. Необходимое и достаточное условие дифференцируемости функции. Частные производные. Полный дифференциал. Производная и дифференциал сложной функции.
- •Градиент функции. Производные по направлению. Необходимые и достаточные условия экстремума функции многих переменных. Условные экстремумы. Метод множителей Лагранжа.
- •Задачи аппроксимации функций (интерполяция, экстраполяция, приближение в среднем). Способы построения интерполяционного полинома. Аппроксимации на основе ортогональных базисов. Понятие сплайна.
- •Численные методы оптимизации: методы Ньютона и секущей, методы покоординатного и градиентного спуска. Улучшение сходимости градиентных методов.
- •Численные методы оптимизации, основанные на случайных числах. Метод Монте-Карло, линейный случайный поиск, метод оптимизации отжигом.
- •Прямые и итерационные методы решения систем линейных алгебраических уравнений. Методы для систем с матрицами специального вида (ленточные, треугольные, положительно-определенные).
- •Линейные пространства функций (примеры). Скалярное произведение и норма. Операторы над линейными пространствами функций. Функционалы. Собственные числа и функции оператора в пространстве l2.
- •Определение вероятности. Вероятностная модель и вероятностное пространство. Вероятность случайного события и методы ее статистического оценивания по выборке.
- •Модель случайной величины. Закон, функция, плотность распределения. Квантили и моменты распределений, методы их статистического оценивания по выборке.
- •Вероятностные и толерантные интервалы: сходства и различия. Понятия точечного и интервального оценивания. Доверительные интервалы. Несмещенные и эффективные оценки.
- •Параметрическое оценивание распределений случайной величины. Метод моментов. Метод наибольшего правдоподобия и его численная реализация. Способы проверки качества параметрического оценивания.
- •Статистические гипотезы и статистические критерии. Односторонние и двусторонние критерии. Критерии согласия. Параметрические критерии. Ошибки первого и второго рода. Мощность критерия.
- •Модель многомерной случайной величины. Совместные и условные распределения. Условные моменты распределений и их оценивание по выборке. Многомерное распределение Гаусса и его свойства.
- •Случайные процессы и временные ряды. Понятие стационарности. Ковариационная (корреляционная функция). Теорема Карунена-Лоэва. Спектральная плотность случайных процессов.
- •Алгоритмы на графах. Алгоритмы обхода (поиска на) графах. Обнаружение кратчайшего пути и минимального цикла в графе. Построение остовного дерева.
- •Основные понятия машинного обучения. Отличие машинного обучения от статистики. Методы на обучении с учителем. Методы на обучении без учителя. Метрики качества алгоритмов машинного обучения.
- •Цикл обучения. Понятия обучающей и тестовой выборки. Отложенная выборка. Кросс-валидация. Понятия недообучения и переобучения. Дилемма смещения и разброса. Размерность Вапника-Червоненкиса.
- •Понятия классификации и кластеризации. Метрические, иерархические, вероятностные методы классификации и кластеризации. Dbscan и kNn. Оценка качества классификации и кластеризации.
- •Понятие искусственной нейронной сети. Типы нейронных сетей. Понятие стохастического градиента для обучения нейронной сети. Многослойный перцептрон. Сверточные нейронные сети.
- •Методы снижения размерности данных. Метод главных компонент. Метод канонических корреляций. Методы факторного анализа. Нелинейные методы снижения размерности.
- •Принцип повышения размерности пространства. Метод опорных векторов. Понятие и свойства ядра. Метод Kernel-Trick.
- •Построение списка решений и дерева решений. Редукция деревьев решений. Понятие бэггинга и бустинга для деревьев решений. Случайный лес и способы его построения.
- •Обучение с подкреплением. Модели агентов и отклика среды. Задачи, решаемые обучением с подкреплением.
- •Ассоциативный анализ и задача о "покупательской корзине". Алгоритмы аprior и fp-Growth.
- •Способы представления знаний. Модели графов знаний. Полнота графов знаний. Методы прямого и обратного вывода по графам знаний. Онтологическая модель и средства ее реализации.
- •Экспертные методы в принятии решений. Принятие решений при многих критериях. Множество Парето. Экспертные системы поддержки принятия решений.
- •Методы машинного обучения для анализа текстовой информации. Понятие эмбеддинга. Методы построения и использования эмбеддингов при работе с текстом.
- •Генеративные методы машинного обучения. Генеративно-состязательные сети. Вариационные автокодировщики. Байесовские сети. Принципы работы, оценка качества.
Цикл обучения. Понятия обучающей и тестовой выборки. Отложенная выборка. Кросс-валидация. Понятия недообучения и переобучения. Дилемма смещения и разброса. Размерность Вапника-Червоненкиса.
Цикл обучения. Цикл обучения - это итерационный процесс обучения модели машинного обучения, оценки ее эффективности и внесения улучшений на основе результатов оценки. Обычно он включает в себя следующие этапы: сбор данных, предварительная обработка данных, выбор модели, обучение модели, оценка модели и уточнение модели.
Понятия обучающей и тестовой выборки. Обучение и тестирование на выборках – это техники, используемые для разделения доступного набора данных на две подвыборки: обучающий набор и тестовый набор.
Случайная выборка – это часто используемая техника, при которой набор данных случайным образом разделяется на обучающий набор и тестовый набор. Этот подход гарантирует, что оба набора являются представительными для всего набора данных и снижает риск введения смещения.
Стратифицированная выборка – это другая техника, которая обеспечивает схожее распределение классов или меток в обучающем и тестовом наборах с общим набором данных. Это особенно полезно при работе с несбалансированными наборами данных, где некоторые классы представлены недостаточно.
Отложенная выборка. Отложенная выборка – это техника, при которой модель обучается на небольшом начальном подмножестве данных, а затем постепенно обучается на дополнительных точках данных с течением времени.
Отложенная выборка полезна при работе с большими наборами данных, которые невозможно обработать сразу или когда новые данные становятся доступными со временем (инкрементное обучение). Начиная с небольшого начального подмножества, модель может быстро обучаться и развертываться по мере поступления новых данных.
Такой подход позволяет использовать приложения в реальном времени или практически в реальном времени.
Кросс-валидация. Общие типы перекрестной проверки включают k-кратную перекрестную проверку, стратифицированную k-кратную перекрестную проверку и перекрестную проверку с выкидыванием одного объекта. Выбор конкретной техники перекрестной проверки зависит от таких факторов, как размер набора данных, распределение классов и доступные вычислительные ресурсы.
k-кратная перекрестная проверка – это пример техники, который включает разделение набора данных на k равных по размеру блоков. Модель обучается на блоках и оценивается на оставшемся блоке. Этот процесс повторяется k раз, при этом каждый блок служит тестовым набором один раз. k-кратная перекрестная проверка обеспечивает более надежную оценку производительности модели с использованием различных комбинаций обучающих и тестовых данных.
Перекрестная проверка особенно полезна, когда набор данных ограничен или когда требуется надежно оценить производительность модели. Она помогает выявить проблемы, такие как переобучение или недообучение, и помогает выбрать подходящие гиперпараметры или архитектуру модели.
Понятия недообучения и переобучения. Недообучение происходит, когда модель не улавливает основные закономерности или взаимосвязи в данных. Это может быть вызвано использованием простого алгоритма, который не может адекватно представить сложность проблемы, или недостаточным количеством обучающих данных. Недообученные модели часто проявляется как высокое смещение.
Для решения проблемы недообучения могут быть рассмотрены более сложные модели, такие как глубокие нейронные сети или ансамблевые методы. Увеличение объема обучающих данных или улучшение техник предварительной обработки данных также может помочь улавливать более тонкие закономерности.
Переобучение, также известное как переподгонка, происходит, когда модель машинного обучения становится слишком сложной и начинает запоминать обучающие данные вместо изучения общих закономерностей.
Переобучение приводит к отличной производительности на обучающем наборе, но плохой производительности на новых данных. Модель фактически "подгоняется" под обучающие данные, захватывая шум или выбросы вместо значимых закономерностей. Переобученные модели часто проявляют низкое смещение, но высокую дисперсию.
Для решения проблемы переобучения можно использовать такие техники, как регуляризация, которая штрафует сложные модели и предотвращает их переподгонку. Увеличение размера обучающего набора или применение техник, таких как прореживание в нейронных сетях, также помогает снизить переобучение.
Дилемма смещения и разброса. Смещение относится к ошибке, вносимой при аппроксимации проблемы реального мира с помощью упрощенной модели. Оно представляет тенденцию модели постоянно отклоняться от истинных значений. Модели с высоким смещением часто слишком просты и не могут улавливать сложные закономерности или взаимосвязи в данных.
Дисперсия, с другой стороны, относится к чувствительности модели к случайным флуктуациям в обучающих данных. Она представляет способность модели адаптироваться к различным вариациям данных. Модели с высокой дисперсией часто слишком сложны и могут запоминать шум или выбросы вместо общих закономерностей.
Компромисс между смещением и дисперсией подразумевает, что уменьшение смещения может увеличить дисперсию и наоборот. Он может быт достигнут с помощью таких техник, как регуляризация, применение ансамблевых методов или выбор лучшей архитектуры модели и настройка ее гиперпараметров.
Размерность Вапника-Червоненкиса. Размерность Вапника-Червоненкиса – это концепция из статистической теории обучения, которая измеряет способность модели машинного обучения подходить к различным закономерностям. Более высокая размерность Вапника-Червоненкиса предоставляет информацию о более высокой сложности модели и ее способности учиться на основе данных, но также и о склонности к переобучению.
Размерность Вапника-Червоненкиса представляет собой максимальное количество точек, которые модель может разделить всеми возможными способами. Например, для линейного классификатора на плоскости размерность Вапника-Червоненкиса равна 3, или в общем случае для мерного пространства .