В 2025 году AI окончательно вышел за рамки экспериментальных функций и стал инфраструктурным слоем цифровых продуктов. Он всё чаще определяет не отдельные возмоВ 2025 году AI окончательно вышел за рамки экспериментальных функций и стал инфраструктурным слоем цифровых продуктов. Он всё чаще определяет не отдельные возмо

«План б.», который сработал: как мы интегрировали Daisy в платформу Билайна

d23f10b2b52de36eee5ec8e3553e5a1a.jpg

В 2025 году AI окончательно вышел за рамки экспериментальных функций и стал инфраструктурным слоем цифровых продуктов. Он всё чаще определяет не отдельные возможности, а логику развития экосистем, скорость запуска новых продуктов и качество пользовательского опыта.

Крупные операторы, банки и цифровые экосистемы уже смещают фокус с самого факта подключения LLM на то, как AI встроен в реальные сценарии. Сегодня важен не отдельный сервис, премиум-чат или новый интерфейс, а быстрый и понятный результат внутри уже привычного цифрового пути. В масштабе же десятков миллионов пользователей ключевым становится архитектурный уровень: устойчивость, управляемость и нативная интеграция в продукт.

​​Именно в этом контексте в 2025 году red_mad_robot и Билайн заключили стратегическое партнёрство. Мы развиваем сразу несколько направлений — от AI-сервисов до клиентских продуктов, где технологии усиливают ежедневный UX.

Одним из первых шагов стало создание полноценного AI-слоя для платформы Билайна «план б.» на базе Agentic-First решения Daisy. Сам Билайн справедливо называет «план б.» больше, чем тарифом: продукт изначально проектировался как цифровая среда, объединяющая мобильную связь и цифровые сервисы в едином пользовательском опыте.

Рассказываем, как мы подошли к проектированию AI-функциональности, какие решения легли в основу архитектуры и что получилось на практике.

Почему AI стал логичным шагом для «плана б.»

Билайн хотел сделать продукт для молодой аудитории, которой важно быть в технологическом контексте и использовать современные инструменты в повседневной жизни.

Задача заключалась в том, чтобы «план б.» работал как цифровой помощник для общения, развлечений и самовыражения, а не «ещё один молодёжный тариф». Поэтому к привычным возможностям — безлимитному доступу к мессенджерам, музыке, видео и соцсетям, компенсации подписки Telegram Premium и другим функциям — в продукт добавили доступ к основным международным LLM.

Именно поэтому AI-функциональность появилась в формате мини-аппа в Telegram, а затем VK и MAX. Такой подход решил сразу несколько ключевых задач:

  1. Нативность и отсутствие трения: пользователь не скачивает отдельное приложение и не привыкает к новому интерфейсу — AI доступен там, где человек и так находится каждый день.

  2. Доступ к международным LLM без VPN: платформа обеспечивает работу с разными моделями в едином контуре «плана б.». Для Билайна это создаёт технологическую гибкость и снижает зависимость от одного вендора.

  3. Новое поколение интерфейсов: AI-сервис должен давать результат без сложных промптов и экспериментов. Поэтому важно было сделать акцент на готовых сценариях.

  4. Масштабируемость и скорость развития: система должна выдерживать рост аудитории и позволять запускать новые сценарии без перестройки продукта достаточно быстро — в течение недель, а не месяцев.

В этом контексте «плану б.» требовался не набор отдельных LLM, а полноценный AI-слой. Такой основой в проекте стала Daisy — Agentic-First решение от red_mad_robot.

Архитектура Daisy изначально проектировалась как white label-решение. Это готовая платформа, способная быстро запускаться в продуктах с большой аудиторией и выдерживать соответствующую нагрузку. Такой подход закрывает один из ключевых вызовов крупных экосистем: им нужна технологическая база, которую можно расширять без риска для стабильности.

Всю AI-функциональность «плана б.» удалось собрать и внедрить за два месяца.

Подробнее о том, как устроена Daisy мы рассказывали в этом материале.

Если коротко, то Daisy обеспечивает интеллектуальную маршрутизацию запросов, механизмы безопасности, контент-фильтрацию и единый слой интеграции моделей. Для продуктовой команды — это управляемая и масштабируемая техническая база, а для пользователя — простой и интуитивно понятный интерфейс.

Подход к проектированию: от чата к сценарному формату

За последний год мы наблюдаем устойчивое изменение в том, как массовые пользователи работают с AI. На первом этапе индустрия решала задачу доступа: дать людям возможность попробовать LLM, разобраться с промптами, научиться применять модели под свои задачи. Это был важный шаг — именно он сделал AI понятным для широкой аудитории.

Параллельно с этим мы в Daisy шли другим путём. Пока рынок фокусировался на доступе, мы развивали сценарную логику взаимодействия — формат, в котором человек выбирает действие, а не инструмент.

Поэтому в «плане б.» всё выстроено вокруг готовых действий — привычных и понятных шагов внутри продукта. Это позволяет сразу переходить к задаче: работе с медиа, текстом или поиску информации, делает опыт предсказуемым и воспроизводимым, а также позволяет масштабировать AI-функциональность без изменений CJM.

В результате ядром интерфейса стали четыре ключевых сценария:

  • работа с текстом;

  • анализ документов и фотографий;

  • генерация и работа с медиа (создание видео, изображений и музыки, AI-аватарки, оживление фото);

  • умный веб-поиск.

Пример сценария генерации музыки в мини-аппе «план б.»
Пример сценария генерации музыки в мини-аппе «план б.»

В такой логике UI становится не отдельным центром взаимодействия, а частью адаптивной среды: система помогает сформулировать запрос, подсказывает и берёт на себя техническую сложность. При этом предусмотрен и прямой доступ к выбранной LLM — без сценариев и дополнительных слоёв.

Что показывают паттерны использования

Первые данные показали, что AI-функциональность стала заметным фактором притяжения для молодой аудитории. Средний возраст новых пользователей, которые активно работают с LLM внутри «плана б.», составляет 29 лет. Это подтверждает, что формат встроенного AI хорошо совпадает с повседневными цифровыми привычками аудитории.

По характеру запросов видно, что AI применяется не в одном узком контексте, а распределяется между разными типами задач. Наиболее востребованы креативные запросы, за ними следуют технологические и образовательные, а также задачи, связанные с повседневной работой и общением.

Это отражается и в выборе инструментов. В сентябре 2025 года чаще всего использовались текстовые модели от OpenAI, сервис генерации изображений Daisy Image Generation, а также мультимодальные инструменты Suno и Runway.

Наиболее востребованные по количеству запросов LLM в сентябре 2025 года
Наиболее востребованные по количеству запросов LLM в сентябре 2025 года

По объёму запросов мы также видим, что AI перешёл в режим регулярного применения. За тот же период сервис обработал более 200 тыс. обращений, среди них:

  • ~86 тыс. — генерация изображений

  • ~114 тыс. — текстовые задачи

Если посмотреть глубже, по уровню сложности запросов, то преобладают простые и средние задачи. Пользователи решают прикладные вопросы и работают с контентом и информацией, не погружаясь в сложную настройку инструментов или моделей.

Распределение запросов по уровням сложности
Распределение запросов по уровням сложности

В совокупности это подтверждает нашу базовую гипотезу: встроенный AI в «плане б.» воспринимается как понятный и доступный в привычных сценариях инструмент, а не отдельный экспериментальный сервис.

Как Daisy обеспечивает масштаб и стабильность сервиса

Как было сказано выше, «Дейзи» изначально проектировалась под высокие нагрузки и быстрое масштабирование. На данный момент текущая конфигурация решения выдерживает до 2 млн пользователей.

Непрерывная работа AI внутри мини-аппов обеспечивается набором сервисов, каждый из которых отвечает за свою критическую часть инфраструктуры:

  • RAG снижает расходы на токены: вместо передачи всего контекста в запросе система извлекает только релевантные фрагменты данных, передаёт их в модель и повторно использует при следующих запросах. Это позволяет уменьшить объём контекста, избежать повторов и оптимизировать количество обращений к LLM.

  • Tariffication Service управляет тарификацией запросов и распределением потребления между моделями и типами операций.

  • Image/Video Generation Service: отвечают за генерацию изображений, видео и аудио. Они вынесены в отдельные сервисы, работают независимо от текстовых моделей и подключают сторонние API через общий слой маршрутизации.

Логическая архитектура Daisy в «плане б.»
Логическая архитектура Daisy в «плане б.»

Сейчас в мини-аппах доступны основные международные LLM — от текстовых до мультимодальных. Пользователи могут работать с ChatGPT, Gemini 2.5, Claude 4.5 Sonnet, DeepSeek, Flux, Runway, Suno и Veo 3.

Когда AI перестаёт быть функцией и становится привычкой

Запуск AI-функциональности в «плане б.» стал проверкой сразу на двух уровнях — пользовательском и инфраструктурном. С точки зрения UX было важно, чтобы AI решал задачи быстро и без переключения между сервисами, а с точки зрения платформы — чтобы архитектура выдерживала рост нагрузки и позволяла развивать функциональность без изменений привычного сценария взаимодействия.

Распределение обращений по типам запросов оказалось равномерным, что говорит о разнообразии сценариев и регулярной работе с LLM.

Такой результат показывает:

  • формат мини-аппа в знакомых экосистемах снижает порог входа;

  • сценарная модель взаимодействия позволяет быстро получать результат;

  • инфраструктура Daisy уверенно выдерживает масштаб и разнообразие запросов.

AI-функциональность не стала ещё одним внешним сервисом — она встроилась в логику платформы, усилила её ценность и создала новую точку взаимодействия с пользователями.


Над материалом работали:

текст — Саша Лазарева

иллюстрации — Саша Буяк


Это блог red_mad_robot. Мы запускаем цифровые бизнесы и помогаем компаниям внедрять AI. Здесь наша команда разработки на собственных кейсах рассказывает о том, что происходит с AI сегодня, а стратегические аналитики подсказывают, что будет завтра. Мы бы подписались.

Наш Telegram-канал (там всё другое, а ещё есть анонсы мероприятий): t.me/redmadnews

Источник

Возможности рынка
Логотип Sleepless AI
Sleepless AI Курс (AI)
$0.03624
$0.03624$0.03624
-1.44%
USD
График цены Sleepless AI (AI) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.