T-Meetup: Computer Vision

T-Meetup: Computer Vision
Санкт-Петербург, Аптекарский проспект, 4, к. 2, стр. 1Т-БанкБесплатноОфлайн
Менеджмент, Аналитика

Встречаемся на митапе по машинному обучению: в программе — эксперты Т-Банка и Smart Engines, которые приготовили для вас три доклада о компьютерном зрении:

  • обсудим текущий уровень развития VisualLM и основные инсайты по их обучению;
  • рассмотрим технологии Text2Img-моделей через призму задачи переноса стиля;
  • узнаем, как квантовать модели для edge-устройств, сохраняя высокую точность.

Сразу после докладов — время для дискуссий и нетворкинга. Сможете пообщаться со спикерами и задать им вопросы, поближе узнать единомышленников и обсудить важные темы.

Доклады

19:00 – 19:40 Методы переноса стиля в современных Text2Img-моделях

За последние годы область генеративного искусственного интеллекта претерпела значительные изменения благодаря развитию Text2Img-моделей, которые могут создавать реалистичные изображения на основе текстовых описаний. Я рассмотрю ключевые технологии, лежащие в основе этих моделей, и их применение в сфере переноса стиля. 

Обсужу с вами современные подходы к синтезу изображений, позволяющие интегрировать художественные эффекты и стилистические особенности, сферу их использования и ограничения методов

Александр Весельев, старший исследователь-разработчик, Т-Банк

19:45 – 20:25 Как делать вычислительно-эффективные нейронные сети для edge-устройств

В последние годы нейронные сети де-факто стали стандартным инструментом во всех задачах, требующих распознавания, синтеза или сложной обработки изображений на edge-системах. В таких системах есть жесткие ограничения на время исполнения и вычислительную сложность методов и объем памяти. 

Для решения этих проблем специалисты используют комплекс подходов, которые направлены на создание компактных квантованных нейронных сетей малых разрядностей. Я расскажу о новой разработке Smart Engines — 4,6-битных квантованных нейронных сетях, которые объединяют высокую точность и вычислительную эффективность

Елена Лимонова, к.т.н., руководитель отдела оптимизации алгоритмов компьютерного зрения, Smart Engines

20:45 – 21:25 Visual Language Model в 2024, какая она?

2024 год стал большим шагом в развитии VLM-моделей, которые позволяют работать с набором изображений и текстов с помощью инструкций на естественном языке. За год эксперты выпустили сотни статей об аспектах визуально-текстовой мультимодальности и десятки открытых VLM-моделей разного размера и направленности. Я проанализировал их и теперь расскажу о новых инженерных идеях и инсайтах 2024 года в построении сильной VLM, поделюсь современными VLM-приложениями и их ограничениями

Максим Евдокимов, исследователь-разработчик, Т-Банк