ПРОГРАММА КУРСА

"Искусственный интеллект: машинное обучение
и нейронные сети. Углубленный уровень"

Количество занятий: 19
Занятия 1-2
Знакомство с Python

  • Числа и арифметика.
  • Строки.
  • Проверка истинности условий.
  • Ветвление и циклы.
  • Списки и кортежи.
  • Последовательность.
  • List comprehensions.
  • Хэширование.
  • Словари и множества.
  • Функции и лямбды.
  • Основы работы с файлами.
Занятия 3-4
Примеры задач анализа данных и типы предсказательных моделей

  • Numpy-массивы и их возможности.
  • Как устроена технологическая цепочка анализа данных.
  • Обучение с учителем/ без учителя/ с подкреплением.
  • Два типа задач обучения с учителем: регрессия и кластеризация.
  • Обучение без учителя: метрическое пространство, алгоритм иерархической кластеризации, алгоритм К-means, алгоритм DBSCAN.

Занятия 5-6
Оценка качества кластеризации

  • Силуэт.
  • V-мера.
Линейные модели

  • Понятие о линейной регрессии и кластеризации.
  • Линейная алгебра.
  • Точное решение задачи линейной регрессии.
  • Связь между регрессией и кластеризацией.
  • Функция потерь.

Занятия 7-8
Регрессия

  • Регуляризация линейных моделей. Понятие о методе градиентного спуска. Логистическая регрессия. Оценка качества обучения с учителем. Кроссвалидация.

Решающие деревья
    • Решающее дерево.
    • Энтропия распределения. Алгоритм построения дерева сверху вниз.
    • Случайный лес.
    • Градиентный бустинг.
    • Использование деревьев в задачах регрессии.


    Занятия 9-10
    Наивный байесовский классификатор

    • Формула Байеса.
    • Наивный байесовский классификатор.
    • Применение к задачам обработки текста.
    Оценка качества в случае несбалансированных классов

    • Точность, полнота, F-мера, ROC-кривая.

    Получение данных

    • Готовые dataset, ручная разметка образцов, векторизация данных.
    Очистка данных, преобразование признаков

    • Одномерные статистики (SelectPercentile).
    • Отбор признаков на основе модели (SelectFromModel).
    • Итеративный отбор признаков (RFE).
    • Конструирование признаков.

    Занятия 11-12
    Обучение с учителем

    • Алгоритм К ближайших соседей.
    • Алгоритм Опорных векторов.
    • Начало нейронных сетей.
    • Персептрон.
    • Сумматорные функции.
    • Функции активации.
    • Методы решений регрессионных задач.
    • Методы решения задач кластеризации.

    Занятия 13-14
    Градиентный спуск

    • Метод обратного распространения ошибки.
    • Построение многослойного персептрона Румельхарта.

    Работа с многослойным персептроном

    • Пример обработки данных dataset MNIST.
    • Обработка dataset "faces" из библиотеки Keras.


    Занятия 15-16
    Сверточные нейроные сети

    • Построение сверточной нейронной сети на основе готового слоя «InceptionV3» от Google
    • Загрузка готовых весов ImageNet.
    • Аугментация данных, принцип ее работы , польза его использования.
    • Поочередное обучение слоев, сохранение значения весов на жесткий диск и загрузка обратно в сеть.
    • Блокировка весов.
    • Тонкая настройка сети.
    • Обработка dataset CATs vs DOGs.

    Занятия 17-18
    Построение рекуррентной нейронной сети и использование ее на реальном текстовом dataset


    • Регуляризация сети.
    • Метод голосования.
    • Погружение слова.
    • Введение в Word2vec.
    • Введение в Glove.
    • Проблема исчезающего и взрывного градиента.

    Занятие 19
    Практическая часть. Подведение итогов. Ответы на вопросы

    • Практика работы с реальными данными с сайта kaggle.com.
    • Автокодировщик.
    • Практика глубокого обучения с применением нейронных сетей.
    • Порождающие состязательные сети.
    • Искусственный интеллект играет в игры. Q-обучение.
    • Сеть с памятью отвечает на вопросы по изученному тексту.
    • Глубокие сновидения.
    • Генерация синтетических данных с помощью глубокой нейронной сети.
    • Ответы на вопросы, разбор домашних заданий, подводим итоги.