Мы используем файлы cookies для улучшения работы сайта НИУ ВШЭ и большего удобства его использования. Более подробную информацию об использовании файлов cookies можно найти здесь, наши правила обработки персональных данных – здесь. Продолжая пользоваться сайтом, вы подтверждаете, что были проинформированы об использовании файлов cookies сайтом НИУ ВШЭ и согласны с нашими правилами обработки персональных данных. Вы можете отключить файлы cookies в настройках Вашего браузера.

  • A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Статья
Partitioning vertices of graphs into paths of the same length

Duginov O., Dmitriy Malyshev, Dmitriy Mokeev

Discrete Applied Mathematics. 2025. Т. 373. С. 179-195.

Глава в книге
ALOE: Boosting Large Language Model Fine-Tuning with Aggressive Loss-Based Elimination of Samples

Demidovskij A., Трутнев А. И., Тугарев А. М. et al.

In bk.: Frontiers in Artificial Intelligence and Applications: 27th European Conference on Artificial Intelligence, 19–24 October 2024, Santiago de Compostela, Spain. Vol. 392. IOS Press Ebooks, 2024. P. 3980-3986.

Препринт
The Gamma-Theta Conjecture holds for planar graphs

Taletskii D.

math. arXiv. Cornell University, 2024

Контакты

603093 Н.Новгород, ул. Родионова, д. 136, 406 к.

Тел: (831) 436-13-97
E-mail: kaf_pmi@hse.ru

Глубинные генеративные модели

2024/2025
Учебный год
RUS
Обучение ведется на русском языке
6
Кредиты

Преподаватели

Программа дисциплины

Аннотация

Generative models in machine learning try to learn the entire distribution of inputs and learn to generate new instances from this distribution. Modern deep generative models draw pictures, write text, compose music, and much more—and that’s exactly what we will see in the course. We will begin with basic definitions and proceed through GANs, VAEs, and Transformers up until the latest state of the art research results. The course requires an understanding of basic machine learning and deep learning.
Цель освоения дисциплины

Цель освоения дисциплины

  • The objective of this course is to learn generative models based on deep neural networks, starting from basic definitions and reaching the current state of the art in several different directions.
Планируемые результаты обучения

Планируемые результаты обучения

  • to understand the difference between discriminative and generative models
  • to understand the relation between naive Bayes and logistic regression
  • to understand the concept of generative-discriminative pairs
  • to understand the difference between various deep generative models
  • to understand the structure of explicit density models from PixelCNN to WaveNet
  • • understand the basic structure of GANs and the idea of adversarial training
  • • understand various loss functions used in modern GANs, including LSGAN and WGAN
  • • understand modern GAN-based architectures for high-resolution generation
  • • understand the paired style transfer problem setting and its solutions (Gatys et al., pix2pix)
  • understand the unpaired style transfer problem setting and its solutions (CycleGAN, AdaIN, StyleGAN)
  • able to understand the idea of the latent space for a deep autoencoder-based model and sampling from it
  • • understand the structure and training of variational autoencoders
  • understand quantized versions of variational autoencoders
  • • have a basic understanding of attention mechanisms in deep learning
  • • understand the operations of a self-attention layer in Transformers
  • • understand modern Transformers, including BERT and GPT families
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Introduction to generative models: motivation and the naive example.
  • Deep generative models: general taxonomy and autoregressive models
  • Generative adversarial networks I: introduction, basic ideas, loss functions in GANs
  • GANs II: modern examples of GANs. Case study: GANs for style transfer.
  • Variational autoencoders: from the basics to VQ-VAE
  • Transformers: basic idea, BERT and GPT. Transformer + VQ-VAE = DALL-E
Элементы контроля

Элементы контроля

  • неблокирующий weekly tests
  • неблокирующий Final test
Промежуточная аттестация

Промежуточная аттестация

  • 2024/2025 3rd module
    0.6 * Final test + 0.4 * weekly tests
Список литературы

Список литературы

Рекомендуемая основная литература

  • Goodfellow, I. (2016). NIPS 2016 Tutorial: Generative Adversarial Networks. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1701.00160
  • Integrating deep learning algorithms to overcome challenges in big data analytics, , 2022

Рекомендуемая дополнительная литература

  • Mescheder, L., Nowozin, S., & Geiger, A. (2017). Adversarial Variational Bayes: Unifying Variational Autoencoders and Generative Adversarial Networks. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsarx&AN=edsarx.1701.04722

Авторы

  • Трехлеб Ольга Юрьевна
  • Савченко Андрей Владимирович