Математические основы ИИ
-
Вектор, скалярное и векторное произведение, линейная оболочка.
-
Матрица, определитель и след матрицы, норма.
-
Метод главных компонент. SVD - разложение матриц.
-
Предел, производная, дифференциал. Производная по направлению, градиент. Первообразная, интеграл. Производные высших порядков, максимум и минимум проверхности, ряд Тейлора.
-
Метод множителей Лагранжа. Метод Каруша-Кунна-Таккера.
-
Метод наименьших квадратов. Метод градиентного спуска.
-
Первообразная, интеграл.
-
Дискретные и непрерывные случайные величины. Функции плотности и распределения.
-
Байесовский подход к вероятности.
-
Матричные разложения. Спектральное разложение. Сингулярное разложение.
-
Преобразование Фурье. Вейвлет-преобразование. Оконные функции.
Теория Вероятности и математическая статистика
-
Вероятностное пространство. Аксиоматика Колмогорова. Вероятностная мера. Функция распределения вероятностной меры. Понятие случайной величины. Геометрическое понимание случайной величины. Распределение вероятностей и функция распределения.
-
Мода. Медиана. Математическое ожидание случайной величины. Дисперсия случайной величины. Ковариация случайных величин. Матрица ковариаций вектора случайных величин. Корреляция.
-
Типы распределения: равномерное, биномиальное, Пуассона, нормальное, экспоненциальное.
-
Неравенство Маркова, неравенство Чебышева, ЗБЧ, ЦПТ
-
Условная вероятность и независимость событий. Теорема Байеса.
-
Теория информации. Энтропия по Шеннону. Энтропия объединения. Условная энтропия. Математические свойства энтропии по Шеннону.
-
Понятие выборки и генеральной совокупности. Доверительный интервал. Функция правдоподобия. Метод максимального правдоподобия. EM-алгоритмы.
-
Статистические критерии проверки гипотез. Критерии значимости. Критерии согласия. Параметрические критерии. t-критерий Стьюдента. Непараметрические критерии.
Машинное обучение
-
Типы задач: классификация, регрессия, прогнозирование, ранжирование, обнаружение аномалий. Методы обучения: обучение с учителем, обучение без учителя, обучение с подкреплением.
-
Функции потерь для задач машинного обучения. Градиентный спуск.
-
Функции оценки качества для задач классификации Accuracy, Precision, Recall, F1, ROC AUC. Функции оценки качества для задач регрессии: MSE, RMSE, MAE, MAPE.
-
Линейные модели. Логистическая регрессия. Концепция переобучения и недообучения. Методы валидации качества алгоритма. Регуляризация. L1/L2 регуляризация, множитель Лагранжа.
-
Решающее дерево, бинаризация признаков, алгоритм построения. Решающие деревья, случайный лес, градиентный бустинг. Методы их обучения, критерий информативности, критерий остановки. Ансамблирование моделей: мажорантное голосование, блендинг, бустинг, бэгинг.
-
Метод опорных векторов (SVM). Разделяющая гиперплоскость. Функция ядра. Трюк с ядром (Kernel Trick)
-
Байесовский подход в машинном обучении. Наивный байесовский классификатор.
-
Кластеризация. Алгоритмы кластеризации. Метод k-средних. DBSCAN. Иерархическая кластеризация.
-
Методы снижения размерности. Метод главных компонент. SNE, t-SNE. UMAP.
-
Типы признаков и их обработка. Нормализация данных, масштабирование, обработка категориальных признаков. Векторизация текстовых данных с помощью bag-of-words, tf-idf.
-
Методы оптимизации. Градиентный спуск, SGD, AdaGrad, Adam, RMSProp, момент Нестерова.
-
Методы работы с временными рядами. Модель ARIMA.
-
Статистические методы интерпретации моделей машинного обучения. SHAP, LIME.
Нейронные сети
-
Нейронные сети. Модель нейрона. MLP. Понятие функции активации. Алгоритм обратного распространения ошибки.
-
Глубокие нейронные сети. Принцип работы слоев: сверточного, полносвязного, пулинг (max pooling, average pooling), нормализации (batch normalization, layer normalization), дропаут
-
Способы искусственного расширения набора данных для увеличения обобщающей способности. Аугментация, генерация, симуляция. Перенос обучения (Transfer learning).
-
Вопросы практической реализации нейронных сетей в условиях ограничения вычислительных ресурсов. Дистилляция. Прунинг. Квантизация.
Глубокие нейронные сети
-
Сверточные нейронные сети. Семейства архитектур: LeNet, AlexNet, VGG, Inception, ResNet, DenseNet, EfficientNet.
-
Контрастивное обучение. Примеры из компьютерного зрения и языковых задач. Сиамские сети. Функции потерь: constrastive loss, triplet loss.
-
Рекуррентные нейронные сети. Архитектуры RNN, GRU, LSTM. Затухание градиента, взрыв градиента. Градиентный клиппинг.
-
Механизм внимания. Self-Attention, Multi-head-attention. Маскированное внимание. Архитектура трансформер и использование механизма внимания в ней. Современные языковые модели: двунаправленные энкодеры (BERT), генеративные трансформеры (GPT).
-
Задачи компьютерного зрения. Задачи детекции. Описание принципов работы R-CNN, YOLO. Задача сегментации. Семантическая сегментация. Паноптическая сегментация. Описание принципа работы U-net. Задача распознавания лиц. Подходы для метрического обучения. Функции потерь для задач классификации, сегментации.
-
Трансформеры в компьютерном зрении. Описание принципа работы архитектуры ViT и его разновидностей.
-
Генеративные модели в компьютерном зрении (генеративно-состязательные нейронные сети). Принцип работы генератора и дискриминатора.
-
Autoencoder. Variational autoencoder. Примеры прикладных задач. Концепция сжатия информации. KL-дивергенция. Трюк с репараметризацией.
-
Диффузионные модели. Прямой проход. Обратный проход.
-
Мультимодальные модели. CLIP. VQVAE. DALLE-E.
-
Нейросетевые модели для работы со звуком. Задача распознавания речи. Задача преобразования речи в текст. Модели Tacatron, Wave2Vec. CTC-loss.
-
Обучение с подкреплением. Основные элементы: среда, агент, функция награды, действия. Монте-Карло, Temporal difference. Проблема исследования и эксплуатации (exporation&expoitation). Алгоритм DQN.
-
Методы интерпретации нейронных сетей. Градиентные методы: GradCAM, Integrated gradients, Noise Tunnel. Методы на основе механизма внимания: матрица внимания, CLEAR, SCOUTER.
-
Графовые ИНС.
Безопасность систем ИИ
-
Концепция атаки уклонением на нейросетевые модели. Существующие атаки уклонением и методы защиты моделей от атак данного типа. Принципы работы FGSM, PGD, семейство атак Карлини и Вагнера, атака Brendel & Bethge, Universal Adversarial Perturbations, Adversarial Patch, Decision Tree Attack, Jacobian Saliency Map, DeepFool, NewtonFool, ShapeShifter, Elastic Net, HopSkipJump Attack, Threshold Attack, Pixel Attack, SimBA, Spatial Transformation, ZOO, Decision-based/Boundary Attack, Geometric Decision-based Attack (GeoDA).
-
Концепция атак извлечением данных. Существующие атаки извлечением данных на модели и методы защиты моделей от атак данного типа. Подходы к извлечению текстовых данных из лингвистических моделей. Подходы к извлечению данных из моделей, работающих с изображениями.
-
Концепция атаки отравлением данных на нейросетевые модели. Существующие атаки отравлением данных и методы защиты моделей от атак данного типа. Принципы работы Adversarial Backdoor Embedding, Clean Label Feature Collision Attack, Clean-Label Backdoor Attack, Poisoning Attack on Support Vector Machines, Bullseye Polytope.
-
Концепция инверсионных атак. Существующие инверсионные атаки и методы защиты моделей от атак данного типа. Методы атак на основе запросов. Дифференциальные атаки. Атаки по побочным каналам.
-
Методы формальной верификации моделей машинного обучения. Верификация на основе ограничений. Абстрактная верификация.
-
Методы оценки устойчивости моделей машинного обучения к внешним воздействиям.