Yandex B2B Tech, корпоративное направление Яндекса, запустило на фирменной ML-платформе визуально-генеративные модели (VLM) с открытым исходным кодом, которые одновременно анализируют изображения и текст. С помощью VLM-моделей, таких как Deepseek VL2 Tiny и Gemma3 27B, компании смогут составлять описания товаров по фотографиям и быстро находить нужную информацию по документам.

Эти модели доступны в Yandex Cloud AI Studio для пакетной обработки большого количества изображений. Модели можно использовать в новом режиме: за один раз можно отправить в нейросети сразу огромное количество запросов. Например, проанализировать комментарии пользователей в соцсетях или составить краткую сводку из множества научных статей. Всего для обработки огромных объемов данных доступны около 20 больших языковых (LLM) и VLM-моделей.
По словам пресс-службы, теперь у Яндекса один из самых больших парков нейросетей c открытым исходным кодом в России – всего их стало около 20.
Тарификация LLM- и VLM-моделей при использовании на больших объемах данных начинается от 200 тыс. токенов (примерно 200 изображений или 360 страниц текста). Такое использование моделей обойдется вдвое дешевле, чем в стандартном режиме, а результат можно получить в течение дня.
Среди уже доступных моделей – Qwen2.5 и LLaMa 3.3, рассуждающие нейросети QwQ и DeepSeek R1. По мере появления новых моделей они почти сразу будут развернуты на платформе Yandex Cloud AI Studio. Вскоре клиентам также будет доступна VLM-модель Яндекса, которая уже используется в «Алисе», «Нейроэксперте», «Поиске» и других сервисах компании. Если клиенту нужно использовать модель для разовых запросов, он может развернуть нужную нейросеть на облачной платформе на выделенных ресурсах.
История редактирования комментария