Искусственный интеллект
Компактный ИИ: малые языковые модели для специализированных задач
Бизнес активно внедряет в рабочие процессы системы искусственного интеллекта (ИИ) на основе больших языковых моделей, LLM (от англ. large language model — «большая языковая модель»). Но есть ограничение: такие модели затратны в обучении и эксплуатации и требуют значительных вычислительных мощностей. Для многих процессов их использование становится избыточно и неоправданно дорого. Альтернатива — малые языковые модели, SLM (от англ. small language models — «малые языковые модели»), заточенные под конкретные задачи. Gartner прогнозирует, что к 2027 году компании будут использовать специализированные модели в 3 раза чаще, чем универсальные LLM. В статье разберём, в каких прикладных сценариях компактный ИИ даёт наибольший эффект.
Содержание:
От универсальности к специализации
По данным аналитиков IDC, уже в 2026 году до 90% корпоративных сценариев будут связаны с обучением и использованием малых языковых моделей (small language models, SLM). Причина — более низкая стоимость и гибкость развёртывания. Кроме того, на практике универсальные модели не всегда корректно работают с редкими форматами документов и узкопрофессиональной терминологией (пишут «Ведомости»). В прикладных задачах это снижает точность и требует дополнительной проверки результатов.
В общемировой статистике, которую приводит McKinsey, около 25% компаний уже используют SLM в операционных процессах, ещё 17% рассматривают внедрение, 13% находятся на стадии пилотов.
Чем малые языковые модели отличаются от больших
Производительность и размер модели генеративных нейронных сетей зависят от такого показателя, как параметры. Это настраиваемые числовые значения внутри нейросети, которые определяют, как модель преобразует входные данные (текст) в ответ. Иными словами, это настройки модели, которые она подбирает во время обучения. Малые языковые модели (SLM) — это компактные системы с относительно небольшим числом параметров, обычно от 50 млн до 2 млрд.
Малые языковые модели менее требовательны к вычислительным мощностям. «Их можно развернуть локально на существенно более скромных ресурсах, вплоть до конечных устройств — телефонов или ноутбуков, что кратно сокращает time-to-market (с англ. „срок внедрения“) для ИИ-решений», — объясняет руководитель практики «Искусственный интеллект в бизнес-решениях» К2Тех Никита Костенчук.
Разница с большими моделями (LLM) не только в объёме знаний, но и в назначении. LLM обучают на универсальных массивах данных и применяют для широкого круга задач. Малые модели (SLM) проектируют под конкретные функции и обучают на специализированных выборках — юридических документах, финансовой отчётности, технических инструкциях. Это позволяет точнее работать с профессиональной терминологией и учитывать контекст бизнес-процесса.
Никита Костенчук
руководитель практики «Искусственный интеллект в бизнес-решениях» К2Тех
Появление экосистем из десятков специализированных моделей — это логично и перспективно с точки зрения архитектуры корпоративных ИИ-решений. Мы видим переход от монолитных универсальных моделей к экосистемам, состоящим из множества специализированных ИИ-агентов. То есть это оркестр из агентов, каждый из которых обучен решать узкий класс задач в рамках конкретной доменной экспертизы: например, один агент специализируется на бухгалтерской отчётности, другой — на документообороте, третий — на генерации кода. В такой архитектуре агенты взаимодополняют друг друга, а их результаты работы могут агрегироваться вышестоящей системой. Такая модель обеспечивает не только снижение совокупной стоимости владения за счёт оптимизации вычислительных ресурсов, но и повышение качества результатов благодаря узкой специализации каждого компонента.
Сравнение языковых моделей
В 90%
сценариев применения корпоративного ИИ могут использоваться SLM
* Токен (с англ. token — «знак») — это минимальная единица текста (слово, часть слова, символ или пробел), которую искусственный интеллект использует для обработки, понимания и генерации ответов.
** On-premise («на территории») — серверное решение.
*** API (от англ. Application Programming Interface — «программный интерфейс приложения») — интерфейс, который позволяет интегрировать нейросеть в сторонние приложения и сервисы.
Смежные архитектурные тренды, которые стали драйверами появления компактного ИИ
Компактный ИИ в России: какие модели доступны бизнесу
На российском рынке представлены как универсальные LLM-решения, так и компактные модели для специализированных задач. Основные разработки мини-версий принадлежат тем же компаниям, которые уже выпустили большие языковые модели (LLM).
«Средний бизнес, как правило, закрывает свои потребности сервисами российских облачных провайдеров, получая выгоду от гибкой тарификации и возможности масштабировать мощности по мере необходимости. Основным же бенефициаром SLM выступает крупный корпоративный сектор, для которого приоритетом является суверенитет данных и ускорение внедрения ИИ в условиях жёстких регуляторных ограничений», — отмечает Никита Костенчук. По мнению эксперта, полноценное обучение моделей с нуля в подавляющем большинстве кейсов неоправданно. Более эффективная стратегия — адаптировать существующие открытые модели при помощи методов дообучения.
Руководитель Лаборатории искусственного интеллекта Московской школы управления Сколково Александр Диденко тоже обращает внимание на то, что компании редко создают модели с нуля: чаще используется дообучение и его промежуточные формы. Например, продолженное предварительное обучение (continued pretraining) — когда берут модель, которая уже усвоила базовые распределения слов в языке, и по той же методике учат предсказывать следующий токен, но уже на другом наборе данных. Речь может идти об экзотическом языке, о специфической терминологии (скажем, китайской традиционной медицине), способе словоупотребления (например, о французской философии XX века) или вообще о специфической задаче вроде чтения таблиц.
Токен (с англ. token — «знак») — это минимальная единица текста (слово, часть слова, символ или пробел), которую искусственный интеллект использует для обработки, понимания и генерации ответов.
Второй популярный способ — адаптация токенизатора (это статистический алгоритм сегментации текста). Он определяет, как слова и символы разбиваются на кусочки перед подачей в модель. Его можно перестроить, чтобы повысить эффективность обработки специальных текстов или точнее обрабатывать особый материал. Александр Диденко приводит кейс одного из ведущих зарубежных поставщиков финансовой информации, который занялся токенизатором для финансовых таблиц, чтобы повысить точность финансовых рассуждений своей специализированной модели. Из отечественных компаний по пути адаптации токенизатора пошли, к примеру, крупный коммерческий онлайн-банк и интернет-платформа объявлений.
Где применяются малые языковые модели
Компактные версии ИИ-моделей чаще всего применяются там, где задача повторяется тысячи и миллионы раз, требуется быстрая обработка, данные нельзя передавать внешним сервисам. Особенно востребованы малые модели в ретейле, финансовых и телекоммуникационных компаниях, промышленности, а также государственных организациях.
«Наибольшую строгость здесь демонстрируют банки из-за требований к защите персональных данных, банковской тайне и операционной устойчивости. Далее идут телеком-компании, где к защите данных и трафика добавляется необходимость обеспечивать низкие задержки для различных сервисов. У промышленности фокус внимания на секретность конструкторской документации, рецептур и тому подобного несколько ниже, отчего утечек для неё по всему миру фиксируют больше», — комментирует Александр Диденко.
Основные сценарии применения компактного ИИ
Никита Костенчук отмечает, что использовать малые модели (SLM) в таких сценариях существенно дешевле: разница в стоимости обработки тысячи запросов между универсальной большой моделью (LLM) и компактной может достигать 50–100 раз в пользу последней. «Кроме того, SLM не требовательны к вычислительным ресурсам, в частности к видеокартам, что критически важно для заказчиков с ограниченным инфраструктурным бюджетом или длительными циклами согласования закупок оборудования», — добавляет он.
Константин Ким
эксперт в области ИТ-разработке и ИИ-решений, член Московской Торгово-промышленной палаты
SLM — это прагматичный инжиниринг. Ценность технологии для бизнеса определяется простой формулой: конкретная задача плюс контролируемые затраты, плюс безопасность данных. Самый частый сценарий сегодня — автоматизация рутины, где большие модели избыточны и дороги. Поиск по технической документации, первичный анализ входящих обращений, помощь сотруднику в заполнении отчёта, генерация шаблонов — вот где SLM дают быстрый и измеримый возврат инвестиций (ROI).
Ограничения малых моделей
По оценкам участников рынка, в сравнении с LLM малые языковые модели хуже подходят для задач с длинной логической цепочкой — подготовки развёрнутых аналитических материалов или сложного анализа данных. В таких сценариях нужен большой контекст и более развитые механизмы рассуждений, которые характерны для крупных моделей.
SLM редко используют как универсального помощника, который должен уметь всё. Малые модели обучаются на ограниченных данных и менее компетентны в вопросах вне своей специализации.
Как правило, эти модели не работают с несколькими типами данных одновременно, например с аудио и текстом, и уступают крупным системам в задачах, где важны вариативность и креативность.
Гибридный подход
На практике компании не выбирают одну модель, а выстраивают комбинированную архитектуру. Крупные модели применяют для сложных языковых задач и мультидоменного анализа, малые — для массовых операций.
McKinsey уже фиксирует архитектурный сдвиг: компании начинают сочетать очень крупные языковые модели и специализированные ИИ-инструменты, которые могут работать локально или на периферийных устройствах.
В 50–100 раз
экономичнее обработка запросов в SLM
Чек-лист: 5 вопросов перед запуском компактного ИИ
Чтобы превратить модель искусственного интеллекта в рабочий инструмент для бизнеса, Константин Ким рекомендует перед стартом проекта ответить на пять вопросов.
Когда на эти вопросы есть ответы, малые языковые модели перестают быть экспериментом ради технологии и превращаются в рабочий инструмент повышения эффективности бизнеса, резюмирует эксперт.
Главное по тексту
Бизнес всё чаще отказывается от универсальных больших языковых моделей (LLM) в пользу малых языковых моделей (SLM) для специализированных задач. По прогнозам Gartner, к 2027 году компании будут применять узкоспециализированные ИИ-модели в три раза чаще, чем универсальные. SLM экономичнее (разница в стоимости обработки запросов может достигать 50–100 раз), безопаснее (данные не покидают корпоративный контур) и точнее работают с профессиональной терминологией.
Ключевой тренд — переход от монолитных LLM к гибридным архитектурам и экосистемам из десятков специализированных ИИ‑агентов, каждый из которых решает узкий класс задач.
Что это значит для бизнеса
Редакция СберПро
Автор