Skip to content

Математические основы ИИ

  1. Вектор, скалярное и векторное произведение, линейная оболочка.

  2. Матрица, определитель и след матрицы, норма.

  3. Метод главных компонент. SVD - разложение матриц.

  4. Предел, производная, дифференциал. Производная по направлению, градиент. Первообразная, интеграл. Производные высших порядков, максимум и минимум проверхности, ряд Тейлора.

  5. Метод множителей Лагранжа. Метод Каруша-Кунна-Таккера.

  6. Метод наименьших квадратов. Метод градиентного спуска.

  7. Первообразная, интеграл.

  8. Дискретные и непрерывные случайные величины. Функции плотности и распределения.

  9. Байесовский подход к вероятности.

  10. Матричные разложения. Спектральное разложение. Сингулярное разложение.

  11. Преобразование Фурье. Вейвлет-преобразование. Оконные функции.

Теория Вероятности и математическая статистика

  1. Вероятностное пространство. Аксиоматика Колмогорова. Вероятностная мера. Функция распределения вероятностной меры. Понятие случайной величины. Геометрическое понимание случайной величины. Распределение вероятностей и функция распределения.

  2. Мода. Медиана. Математическое ожидание случайной величины. Дисперсия случайной величины. Ковариация случайных величин. Матрица ковариаций вектора случайных величин. Корреляция.

  3. Типы распределения: равномерное, биномиальное, Пуассона, нормальное, экспоненциальное.

  4. Неравенство Маркова, неравенство Чебышева, ЗБЧ, ЦПТ

  5. Условная вероятность и независимость событий. Теорема Байеса.

  6. Теория информации. Энтропия по Шеннону. Энтропия объединения. Условная энтропия. Математические свойства энтропии по Шеннону.

  7. Понятие выборки и генеральной совокупности. Доверительный интервал. Функция правдоподобия. Метод максимального правдоподобия. EM-алгоритмы.

  8. Статистические критерии проверки гипотез. Критерии значимости. Критерии согласия. Параметрические критерии. t-критерий Стьюдента. Непараметрические критерии.

Машинное обучение

  1. Типы задач: классификация, регрессия, прогнозирование, ранжирование, обнаружение аномалий. Методы обучения: обучение с учителем, обучение без учителя, обучение с подкреплением.

  2. Функции потерь для задач машинного обучения. Градиентный спуск.

  3. Функции оценки качества для задач классификации Accuracy, Precision, Recall, F1, ROC AUC. Функции оценки качества для задач регрессии: MSE, RMSE, MAE, MAPE.

  4. Линейные модели. Логистическая регрессия. Концепция переобучения и недообучения. Методы валидации качества алгоритма. Регуляризация. L1/L2 регуляризация, множитель Лагранжа.

  5. Решающее дерево, бинаризация признаков, алгоритм построения. Решающие деревья, случайный лес, градиентный бустинг. Методы их обучения, критерий информативности, критерий остановки. Ансамблирование моделей: мажорантное голосование, блендинг, бустинг, бэгинг.

  6. Метод опорных векторов (SVM). Разделяющая гиперплоскость. Функция ядра. Трюк с ядром (Kernel Trick)

  7. Байесовский подход в машинном обучении. Наивный байесовский классификатор.

  8. Кластеризация. Алгоритмы кластеризации. Метод k-средних. DBSCAN. Иерархическая кластеризация.

  9. Методы снижения размерности. Метод главных компонент. SNE, t-SNE. UMAP.

  10. Типы признаков и их обработка. Нормализация данных, масштабирование, обработка категориальных признаков. Векторизация текстовых данных с помощью bag-of-words, tf-idf.

  11. Методы оптимизации. Градиентный спуск, SGD, AdaGrad, Adam, RMSProp, момент Нестерова.

  12. Методы работы с временными рядами. Модель ARIMA.

  13. Статистические методы интерпретации моделей машинного обучения. SHAP, LIME.

Нейронные сети

  1. Нейронные сети. Модель нейрона. MLP. Понятие функции активации. Алгоритм обратного распространения ошибки.

  2. Глубокие нейронные сети. Принцип работы слоев: сверточного, полносвязного, пулинг (max pooling, average pooling), нормализации (batch normalization, layer normalization), дропаут

  3. Способы искусственного расширения набора данных для увеличения обобщающей способности. Аугментация, генерация, симуляция. Перенос обучения (Transfer learning).

  4. Вопросы практической реализации нейронных сетей в условиях ограничения вычислительных ресурсов. Дистилляция. Прунинг. Квантизация.

Глубокие нейронные сети

  1. Сверточные нейронные сети. Семейства архитектур: LeNet, AlexNet, VGG, Inception, ResNet, DenseNet, EfficientNet.

  2. Контрастивное обучение. Примеры из компьютерного зрения и языковых задач. Сиамские сети. Функции потерь: constrastive loss, triplet loss.

  3. Рекуррентные нейронные сети. Архитектуры RNN, GRU, LSTM. Затухание градиента, взрыв градиента. Градиентный клиппинг.

  4. Механизм внимания. Self-Attention, Multi-head-attention. Маскированное внимание. Архитектура трансформер и использование механизма внимания в ней. Современные языковые модели: двунаправленные энкодеры (BERT), генеративные трансформеры (GPT).

  5. Задачи компьютерного зрения. Задачи детекции. Описание принципов работы R-CNN, YOLO. Задача сегментации. Семантическая сегментация. Паноптическая сегментация. Описание принципа работы U-net. Задача распознавания лиц. Подходы для метрического обучения. Функции потерь для задач классификации, сегментации.

  6. Трансформеры в компьютерном зрении. Описание принципа работы архитектуры ViT и его разновидностей.

  7. Генеративные модели в компьютерном зрении (генеративно-состязательные нейронные сети). Принцип работы генератора и дискриминатора.

  8. Autoencoder. Variational autoencoder. Примеры прикладных задач. Концепция сжатия информации. KL-дивергенция. Трюк с репараметризацией.

  9. Диффузионные модели. Прямой проход. Обратный проход.

  10. Мультимодальные модели. CLIP. VQVAE. DALLE-E.

  11. Нейросетевые модели для работы со звуком. Задача распознавания речи. Задача преобразования речи в текст. Модели Tacatron, Wave2Vec. CTC-loss.

  12. Обучение с подкреплением. Основные элементы: среда, агент, функция награды, действия. Монте-Карло, Temporal difference. Проблема исследования и эксплуатации (exporation&expoitation). Алгоритм DQN.

  13. Методы интерпретации нейронных сетей. Градиентные методы: GradCAM, Integrated gradients, Noise Tunnel. Методы на основе механизма внимания: матрица внимания, CLEAR, SCOUTER.

  14. Графовые ИНС.

Безопасность систем ИИ

  1. Концепция атаки уклонением на нейросетевые модели. Существующие атаки уклонением и методы защиты моделей от атак данного типа. Принципы работы FGSM, PGD, семейство атак Карлини и Вагнера, атака Brendel & Bethge, Universal Adversarial Perturbations, Adversarial Patch, Decision Tree Attack, Jacobian Saliency Map, DeepFool, NewtonFool, ShapeShifter, Elastic Net, HopSkipJump Attack, Threshold Attack, Pixel Attack, SimBA, Spatial Transformation, ZOO, Decision-based/Boundary Attack, Geometric Decision-based Attack (GeoDA).

  2. Концепция атак извлечением данных. Существующие атаки извлечением данных на модели и методы защиты моделей от атак данного типа. Подходы к извлечению текстовых данных из лингвистических моделей. Подходы к извлечению данных из моделей, работающих с изображениями.

  3. Концепция атаки отравлением данных на нейросетевые модели. Существующие атаки отравлением данных и методы защиты моделей от атак данного типа. Принципы работы Adversarial Backdoor Embedding, Clean Label Feature Collision Attack, Clean-Label Backdoor Attack, Poisoning Attack on Support Vector Machines, Bullseye Polytope.

  4. Концепция инверсионных атак. Существующие инверсионные атаки и методы защиты моделей от атак данного типа. Методы атак на основе запросов. Дифференциальные атаки. Атаки по побочным каналам.

  5. Методы формальной верификации моделей машинного обучения. Верификация на основе ограничений. Абстрактная верификация.

  6. Методы оценки устойчивости моделей машинного обучения к внешним воздействиям.