Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке»Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке»

Братство нейросети: итоги сезона «ИИ в разработке»

Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке» пробовали ИИ в самых разных ролях: от экзаменационного ассистента до соавтора open source проектов. Наши герои создавали игру для ребёнка с помощью ИИ (отдельный респект за попытку объяснить шестилетнему ребёнку схему разработки), вайб-кодили инструмент для поиска снимков в собственном фотоархиве (разобрать фото — наверняка боль для многих…), проектировали вибрационный вариометр для парапланеризма.

Где‑то ИИ честно экономил десятки часов и помогал одному человеку тянуть проекты «на уровне команды», а где‑то превращал разработку в шаманство с бубном, обнулял оценки в экзаменационной ведомости и выключал аэродинамику одной строкой.

Пришло время подвести итоги!

Статистика сезона и какие модели использовали участники

Участники сезона «ИИ в разработке» представили много самых разных примеров использования искусственного интеллекта, рассказали об интересных проектах, но победителями стали лишь 15 авторов. Чем же они пользовались в работе? Посмотрим на статистику упоминаний среди статей победителей:

  • Qwen (27)

  • Claude (24)

  • Cursor (17)

  • GigaChat (14)

  • OpenAI (12)

  • DeepSeek (11)

  • GigaAM (10)

  • Gemini (9)

Отдельной линией сезона стало практическое использование отечественных открытых моделей — не в лабораторных условиях, а в реальных сценариях разработки. Накануне старта сезона Сбер выкатил веса моделей в открытый доступ. В open source ушли GigaChat 3 Ultra Preview на 702B параметров, подходящая для локального использования в качестве ассистента GigaChat Lightning, набор из пяти моделей для распознавания речи GigaAM-v3, Kandinsky 5.0 и Автокодировщик K-VAE 1.0 для ускорения генеративного AI.

Одним из первых @konstantin_kozhin захотел проверить их в реальном сценарии. Так, он разработал Telegram-бота для преобразования голосовых сообщений в текст, использовав модель GigaAM-v3. Почему бы, собственно, не воспользоваться расшифровщиком в премиум-аккаунте в ТГ? Потому что он не работает с произвольными файлами и не способен «переварить» длинные сообщения.

А хабрапользователь @golangloves протестировал версию Lightning, сравнил бенчмарки с Qwen и показал, как запустить модель без затрат на железо. Автор отметил, что для задач на русском языке и работы с длинными контекстами Lightning — одна из лучших открытых моделей в своём классе. Вот здесь можно почитать результаты эксперимента. Статьи @konstantin_kozhin и @golangloves вошли в топ-15 лучших в сезоне по рейтингу.

Наши победители сумели вовлечь хабрапользователей в активное обсуждение темы. Именно признание сообщества — главная ценность сезона. Комментаторы на Хабре традиционно выступили в роли ревью-комитета, и часть проектов стала лучше именно благодаря участию сообщества: здесь подсказывали, спорили, совершенствовали код, помогали доводить проекты до ума. Но есть и материальные призы: топ-5 авторов получат по 50 000 рублей, ещё 10 участников — по 25 000 рублей.

Суммарно статьи собрали 808 плюсов, 1281 добавление в избранное и 632 комментария.

Под спойлером — таблица со всеми статьями сезона, упорядоченными по рейтингу.

Статья

Автор

Джун наоборот или разоблачение главного мифа вайб-кодинга

@master_program

Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV

@Lkalyadin10

Вайбанутым нет покоя

@fedignat

Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России

@snakers4

Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки

@gliderman

Синдром бесконечного окна: почему 1 миллион токенов в LLM не решает ваши проблемы (пока)

@Ser_no

Мультиагентная разработка в Cursor: как заставить субагентов работать на большие проекты

@rdudov

Поиск в личном фото архиве по текстовому описанию

@virex

Главная проблема использования ИИ (Иллюзии Интеллекта) при разработке ПО

@rsashka

От голосовых к тексту: делаем Telegram-бота для расшифровки аудио на open source модели от СБЕР — GigaAM-v3

@konstantin_kozhin

Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт

@Dmitrii-Chashchin

Ночь, телескоп, ИИ, комета: анализ спектра 3I/ATLAS с собственным Python-pipeline

@Dorial

Mixture-of-Experts: архитектура, которая спасает LLM от их собственного аппетита

@full_moon

GigaChat 3 Lightning: разбираем open source модель от Сбера

@golangloves

Прощай, ЖЖ — cпасаем заметки Python-скриптом

@gliderman

Мебельный гвоздь в крышку гроба AGI

@master_program

Как я тв-шоу переводил с помощью ML-моделей без подписок и СМС

@CyberexTech

«Господин Говорунъ: как я обучил маленькую модель разговаривать на дореформенном русском»

@konstantin_kozhin

OpenAI и ее патенты: кто стоит за разработками компании

@sokolovps

Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений

@VetaOne

Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором

@mvoytko

ML на Мосбирже — почему мой грааль не работает?

@empenoso

Новогодний подарок: Как я прикрутил LLM к scratch и порадовал ребёнка

@LeXaNe

300 дней с AI-агентами: от руководителя к Full Cycle Engineer

@akozhin

Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5

@Dmitrii-Chashchin

Атаки на AI-агенты: примеры угроз и опыт участия в Agent Breaker CTF

@mmvds

Как случайный код Пелевина стал пророчеством о гигаваттах для ИИ-агентов

@Danil_ka88

Подземелье c LLM-экспертами: используем PocketFlow и MCP для объяснения настолок

@Phoenix133

Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов

@zabarov

Знаний слишком много. Что делать?

@flancer

Как квантовать LLM. Практическое руководство для начинающих

@maksimov_m

Базовый RAG-компонент для локального семантического поиска на Питоне

@AKAZ

Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать

@MidavNibush

Вкалывают роботы, а не человек, или как убрать рутину из работы при помощи ИИ

@VasilkovN

Код пишет нейросеть. Что остается разработчику?

@mpanfilov

LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга

@GrinRus

RealTime FaceSwap-10k — датасет для задачи детекции real-time дипфейков

@starikovplusplus

Хакатон Норникеля: как мы выжали максимум из YOLO и заняли 2 место

@Sherstpasha

Тестируем GigaChat на наличие сознания доступа

@Kamil_GR

Как я создал «Тунец» — платформу для попадания в ответы нейросетей с помощью нейросетей…

@Ja-gagarin

Сравнение ИИ для участия в контесте по вайбкодигу

@kosyakus

Как я за год переквалифицировался в ИИ-инженера: от DevOps до production-ready AI-агентов

@alexcollin

RAG-помощник для команды саппорта своими руками

@vdrobot

Автоматизация фоновой аналитики в финтехе с помощью background LLM‑агента: реальный опыт

@MaximML

Мы боялись за джунов, но всё будет иначе или по-другому, а может, вообще не так, как думали

@Danil_ka88

Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами

@python_leader

Как «думает» ИИ: гроккаем разреженные автоэнкодеры (SAE)

@Ivanich-spb

ИИ как инструмент для создания реальных объектов: от генерации картинки к 3D-печатной игрушке

@Danil_ka88

Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация

@ZeBrains_team

Стремимся к AGI: обучаем нейросети в экосистеме эволюционно с нуля

@LanskoyGames

Будильник для зимы: как я подружил лампу Ильича, ZigBee и LLM

@gliderman

Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене

@DankosJP

Учимся правильно использовать ИИ при разработке программного обеспечения

@rsashka

Запускаем LLM на iPhone локально — мой опыт с Gemma 2B

@Dmitrii-Chashchin

AI+RAG в системе отчетности

@SmartSmall

Upgrade: OpenSpec и Beads в Cursor

@comerc

Сбер проник в n8n и фильтрует нам лидов: как мы подключили Отечественную нейросеть к автоматизациям

@Aleron75

Гибридная нейросимвольная архитектура для превращения вероятностных ответов LLM в детерминированный код

@leleleonid

Зачем ИИ системному аналитику

@BA_TW

Не читал, но одобряю: пишем софт для быстрого анализа пользовательских соглашений

@beatwad

Сыч: телеграм-бот, который помнит обиды и обходит лимиты Google Gemini

@VetaOne

Вайбкодинг с нейросетью 1: проверяю сборку Flutter-приложения в AppImage

@Arduinum

Как ИИ помогает проектировать базы данных

@Rikkster

Избавляемся от ошибок Segmentation fault из-за переполнения стека в С++

@rsashka

Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B)

@Dmitrii-Chashchin

TSP трансформеры

@welcome2hype

Эксперимент по подстройке Gemma 3 для вызова процедур

@DSDenisov

Data-Feeling-School-RAG-Challenge или по ту сторону баррикад

@IgorSh63

От 4/10 до 8.5/10: как я за 5 итераций научил GigaChat извлекать требования из интервью

@aeremenok

Вайб-ЛЛМинг. AI агенты теперь сами обучают LLM с помощью Hugging Face Skills

@Biryukovlex

Как написать код в два счёта: впрягаем Codex с GPT

@zabarov

3 главных инсайта о «взломах» LLM из исследования StrongREJECT

@Ivanich-spb

7 причин, почему ваш ИИ тупит (и как это исправить)

@celen

Multi-API Ensemble: 95% точности транскрипции региональных топонимов

@men10577

Учебник для искусственного разума: как я сделал ИИ-помощника по планированию для 1С:ERP

@parusimore

Обзор проекта WhisperLiveKit — синхронный перевод между любыми языками

@SlavikF

Нейроакварель. Тестируем разные ИИ-решения для создания эффекта живописи красками

@GeorgyKurakin

Roo Code для тестировщика: как превратить обязательные запросы к DeepSeek в реальную пользу

@aeremenok

Оптимизация пагинации в PostgreSQL: Как настройка work_mem превратила ROW_NUMBER в лидера производительности

@pg_expecto

PG_EXPECTO: Анализ влияния размера shared_buffers на производительность СУБД PostgreSQL

@pg_expecto

Как я подключил ИИ к КуМиру: простой способ сделать школьный язык «умным»

@wsda228

Как прикрутить AI к табуретке

@vital_pavlenko

Умеет ли Gemini в TTS и транскрибацию?

@RS_AI

История о том как «Очень хочется, но ты зеленый»

@Infernobeef

Vibe Pentesting: Интегрируем HexStrike AI и OpenCode в Kali Linux

@Chumikov

Ускорение разработки с ИИ на примере DAX и Power BI

@koanse

Нечеловек, который изменил всё: как эффективно работать с ИИ, на примере создания схем бизнес-процессов в BPMN

@parusimore

Инструмент c AI-логикой для создания дерева метрик MetricTree

@v_v_pavloff

Как я делаю «снимок» проекта в JSON для ИИ и разворачиваю его обратно

@zabarov

Kandinsky 5.0 vs Stable Diffusion: практический тест на 6 сценариях для иллюстраций и ассетов

@Efrosim123

Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S

@Ded_Egor

Сделай бота для работы

@AlexeySushkov

Как мы учили ИИ тушить инциденты вместо нас (что из этого вышло)

@Up4Soft

Прогноз нейросети — Когда теория проигрывает практике или почему ROW_NUMBER() не стал королём пагинации PostgreSQL

@pg_expecto

Рассмотрим подробнее лидеров рейтинга и о чём они успели написать за прошедшие два месяца.

Топ-5 победителей сезона

Джун наоборот

Притчей во языцех стало мнение о том, что ИИ работает как джуниор-разработчик. С этим категорически не согласен хабрапользователь @master_program. Для него ИИ — всё-таки джун наоборот. Чтобы доказать это, автор попытался создать код для решения задачи моделирования полёта ракеты в атмосфере. ИИ сгенерировал код, но при перепроверке не смог найти большую часть ошибок. Кроме того, написал аэродинамику и выключил её сам. Подробности — в статье Джун наоборот или разоблачение главного мифа вайб-кодинга.

В геймдев с двух ног

А вот @Lkalyadin10 доказал, что ИИ — это джун. Когда его шестилетняя дочка, которая любит проходить лабиринты, не хотела ложиться спать, он начал разработку собственной игры для неё. Игра выстрелила в топе приложений для Android TV. Как у автора это получилось, читайте в статье Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV. Приятно, что сезон получился полезным и познавательным не только для авторского сообщества, но и для малышей!

Ни капли в рот, ни буквы в код

Представьте, что вы преподаватель и каждый раз заполняете десятки бумажных ведомостей. Пользователь @fedignat решил заменить их android‑приложением для приёма экзаменов и выставления оценок, учёта пересдачи и фиксации IP машины студента, если он работает с компьютера в аудитории. Сначала вайб-кодинг удавался, но в час X во время приёма экзамена первая же оценка просто исчезла. Кейс показал: без понимания разработки даже с ИИ создать надёжный продукт сложно. Так что «эра индивидуальных приложений» ещё не наступила. Читайте подробнее в статье Вайбанутым нет покоя.

Дружба народов

Команда, в которую входит автор @snakers4, провела титаническую работу: после выбора 20 языков собрала голоса носителей на родном и на русском, а затем создала ПО для синтеза речи на этих языках. Теперь любой голос в модели может говорить на всех поддержанных языках. Подробнее о проекте читайте в статье: Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России.

Мой параплан, мой парапла-а-ан…

От программных проектов — к «железу». Пользователь @gliderman решил превратить часы в вибровариометр. Парапланеристы используют вариометры для измерения вертикальной скорости параплана, и не всем нравится, как они пищат. В своём проекте @gliderman решил исправить это, чтобы вместо звука часы подавали тактильный сигнал, вибрировали. Так пилот сможет наслаждаться шумом ветра, а не раздражаться от писка. Что получилась, читайте в статье Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки. Как обычно на Хабре, комментарии имеют огромную ценность: ряд проблем с устройством помогли решить другие пользователи.

Топ-15 победителей сезона

Авторы следующих 10 статей по списку получат по 25 000 рублей. На шестом месте рейтинга – @Ser_no который разбирается, почему разработчики заливают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу», почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.

Автор @rdudov рассказал о мультиагентной разработке в Cursor. В Claude Code есть субагенты: экземпляры того же агента, но с фиксированным промптом и чёткими входными данными. Но не всё так радужно — в Claude Code есть vendor lock на модели Anthropic, а доступ к некоторым моделям дают только дорогие тарифы. Автор разбирал, как такой подход можно запустить в Cursor.

Давно ли вы пытались разобрать ваши снимки, сделанные хотя бы за один год? Или за один отпуск… @virex для решения этой проблемы написал поиск в личном архиве по текстовому описанию. Статья — по ссылке.

@rsashka расшифровывает ИИ не как «искусственный интеллект», а как «иллюзия интеллекта». Его поражает, как можно спорить: есть ли у LLM интеллект, или это всего лишь математические вычисления по определённому алгоритму. Автор считает, что нет смысла создавать рассуждающую иллюзию интеллекта, потому что «имитация разума превращает потенциально полезный рабочий инструмент в игру на бубне без каких-либо гарантий качества и воспроизводимости полученных результатов».

@Dmitrii-Chashchin подготовил чек-лист для разработчика, который способен помочь ИИ не топтаться на месте, создавая выдуманные переменные, кучу дублей файлов и добавляя баги. Автор рассказывает, как создать агента, способного следить за проектом и грамотно фиксить код.

Пришло время добавить немного космоса. В этом нам поможет @Dorial любитель-астроном наблюдает за 3I/ATLAS, получает свежие фото и FITS-файлы и анализирует спектр 3I/ATLAS с помощью собственного Python-pipeline. Автор рассказал, как ИИ открывает двери в науку всем желающим.

Суть метода Mixture-of-Experts: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Автор @full_moon рассказал о том, как работает эта архитектура, какой путь прошла за последние годы, и задаёт нам вопрос: действительно ли за МоЕ будущее или её роль сильно переоценена?

@CyberexTech решил реализовать сервис машинного закадрового перевода видео с помощью общедоступных моделей с локальным запуском. По ссылке в статье посмотрите, что получилось, на примере интервью с Томом Холландом. Интересно, что для проекта использована модель для синтеза Silero Speech, то есть продукт команды, статья которой заняла четвёртое место в этом сезоне.

Подводим итоги

Сезон «ИИ в разработке» наглядно показал: сообществу интересен не сам по себе искусственный интеллект, а его практическая применимость. Наибольшую вовлечённость получили инженерные кейсы, когда ИИ встраивается в реальный процесс разработки со всеми его ограничениями. Границы технологий стали заметнее. ИИ сегодня способен ускорять работу, но легко теряет контекст и не умеет отвечать за результат. Чем выше цена ошибки, тем критичнее роль человека.

Ещё один устойчивый тренд сезона — гибридный подход. Авторы редко ограничивались одним инструментом: одну модель использовали для генерации кода, другую — для анализа и ревью, третью — для речи и изображений. Отдельно стоит отметить роль отечественных моделей. В рамках сезона веса GigaChat использовались как полноценные рабочие инструменты: авторы запускали их локально, встраивали в собственные пайплайны, сравнивали с зарубежными аналогами и отмечали сильные стороны — прежде всего в задачах на русском языке, работе с длинными контекстами, воспроизводимости и контроле над инфраструктурой.

Сезон «ИИ в разработке» завершён. Но разговор о том, как именно и зачем мы используем искусственный интеллект, только начинается. И опыт, которым вы поделились, — в виде кода, проектов и собственных выводов — останется с сообществом навсегда.

Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке» пробовали ИИ в самых разных ролях: от экзаменационного ассистента до соавтора open source проектов. Наши герои создавали игру для ребёнка с помощью ИИ (отдельный респект за попытку объяснить шестилетнему ребёнку схему разработки), вайб-кодили инструмент для поиска снимков в собственном фотоархиве (разобрать фото — наверняка боль для многих…), проектировали вибрационный вариометр для парапланеризма.

Где‑то ИИ честно экономил десятки часов и помогал одному человеку тянуть проекты «на уровне команды», а где‑то превращал разработку в шаманство с бубном, обнулял оценки в экзаменационной ведомости и выключал аэродинамику одной строкой.

Пришло время подвести итоги!

Статистика сезона и какие модели использовали участники

Участники сезона «ИИ в разработке» представили много самых разных примеров использования искусственного интеллекта, рассказали об интересных проектах, но победителями стали лишь 15 авторов. Чем же они пользовались в работе? Посмотрим на статистику упоминаний среди статей победителей:

  • Qwen (27)

  • Claude (24)

  • Cursor (17)

  • GigaChat (14)

  • OpenAI (12)

  • DeepSeek (11)

  • GigaAM (10)

  • Gemini (9)

Отдельной линией сезона стало практическое использование отечественных открытых моделей — не в лабораторных условиях, а в реальных сценариях разработки. Накануне старта сезона Сбер выкатил веса моделей в открытый доступ. В open source ушли GigaChat 3 Ultra Preview на 702B параметров, подходящая для локального использования в качестве ассистента GigaChat Lightning, набор из пяти моделей для распознавания речи GigaAM-v3, Kandinsky 5.0 и Автокодировщик K-VAE 1.0 для ускорения генеративного AI.

Одним из первых @konstantin_kozhin захотел проверить их в реальном сценарии. Так, он разработал Telegram-бота для преобразования голосовых сообщений в текст, использовав модель GigaAM-v3. Почему бы, собственно, не воспользоваться расшифровщиком в премиум-аккаунте в ТГ? Потому что он не работает с произвольными файлами и не способен «переварить» длинные сообщения.

А хабрапользователь @golangloves протестировал версию Lightning, сравнил бенчмарки с Qwen и показал, как запустить модель без затрат на железо. Автор отметил, что для задач на русском языке и работы с длинными контекстами Lightning — одна из лучших открытых моделей в своём классе. Вот здесь можно почитать результаты эксперимента. Статьи @konstantin_kozhin и @golangloves вошли в топ-15 лучших в сезоне по рейтингу.

Наши победители сумели вовлечь хабрапользователей в активное обсуждение темы. Именно признание сообщества — главная ценность сезона. Комментаторы на Хабре традиционно выступили в роли ревью-комитета, и часть проектов стала лучше именно благодаря участию сообщества: здесь подсказывали, спорили, совершенствовали код, помогали доводить проекты до ума. Но есть и материальные призы: топ-5 авторов получат по 50 000 рублей, ещё 10 участников — по 25 000 рублей.

Суммарно статьи собрали 808 плюсов, 1281 добавление в избранное и 632 комментария.

Под спойлером — таблица со всеми статьями сезона, упорядоченными по рейтингу.

Статья

Автор

Джун наоборот или разоблачение главного мифа вайб-кодинга

@master_program

Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV

@Lkalyadin10

Вайбанутым нет покоя

@fedignat

Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России

@snakers4

Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки

@gliderman

Синдром бесконечного окна: почему 1 миллион токенов в LLM не решает ваши проблемы (пока)

@Ser_no

Мультиагентная разработка в Cursor: как заставить субагентов работать на большие проекты

@rdudov

Поиск в личном фото архиве по текстовому описанию

@virex

Главная проблема использования ИИ (Иллюзии Интеллекта) при разработке ПО

@rsashka

От голосовых к тексту: делаем Telegram-бота для расшифровки аудио на open source модели от СБЕР — GigaAM-v3

@konstantin_kozhin

Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт

@Dmitrii-Chashchin

Ночь, телескоп, ИИ, комета: анализ спектра 3I/ATLAS с собственным Python-pipeline

@Dorial

Mixture-of-Experts: архитектура, которая спасает LLM от их собственного аппетита

@full_moon

GigaChat 3 Lightning: разбираем open source модель от Сбера

@golangloves

Прощай, ЖЖ — cпасаем заметки Python-скриптом

@gliderman

Мебельный гвоздь в крышку гроба AGI

@master_program

Как я тв-шоу переводил с помощью ML-моделей без подписок и СМС

@CyberexTech

«Господин Говорунъ: как я обучил маленькую модель разговаривать на дореформенном русском»

@konstantin_kozhin

OpenAI и ее патенты: кто стоит за разработками компании

@sokolovps

Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений

@VetaOne

Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором

@mvoytko

ML на Мосбирже — почему мой грааль не работает?

@empenoso

Новогодний подарок: Как я прикрутил LLM к scratch и порадовал ребёнка

@LeXaNe

300 дней с AI-агентами: от руководителя к Full Cycle Engineer

@akozhin

Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5

@Dmitrii-Chashchin

Атаки на AI-агенты: примеры угроз и опыт участия в Agent Breaker CTF

@mmvds

Как случайный код Пелевина стал пророчеством о гигаваттах для ИИ-агентов

@Danil_ka88

Подземелье c LLM-экспертами: используем PocketFlow и MCP для объяснения настолок

@Phoenix133

Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов

@zabarov

Знаний слишком много. Что делать?

@flancer

Как квантовать LLM. Практическое руководство для начинающих

@maksimov_m

Базовый RAG-компонент для локального семантического поиска на Питоне

@AKAZ

Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать

@MidavNibush

Вкалывают роботы, а не человек, или как убрать рутину из работы при помощи ИИ

@VasilkovN

Код пишет нейросеть. Что остается разработчику?

@mpanfilov

LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга

@GrinRus

RealTime FaceSwap-10k — датасет для задачи детекции real-time дипфейков

@starikovplusplus

Хакатон Норникеля: как мы выжали максимум из YOLO и заняли 2 место

@Sherstpasha

Тестируем GigaChat на наличие сознания доступа

@Kamil_GR

Как я создал «Тунец» — платформу для попадания в ответы нейросетей с помощью нейросетей…

@Ja-gagarin

Сравнение ИИ для участия в контесте по вайбкодигу

@kosyakus

Как я за год переквалифицировался в ИИ-инженера: от DevOps до production-ready AI-агентов

@alexcollin

RAG-помощник для команды саппорта своими руками

@vdrobot

Автоматизация фоновой аналитики в финтехе с помощью background LLM‑агента: реальный опыт

@MaximML

Мы боялись за джунов, но всё будет иначе или по-другому, а может, вообще не так, как думали

@Danil_ka88

Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами

@python_leader

Как «думает» ИИ: гроккаем разреженные автоэнкодеры (SAE)

@Ivanich-spb

ИИ как инструмент для создания реальных объектов: от генерации картинки к 3D-печатной игрушке

@Danil_ka88

Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация

@ZeBrains_team

Стремимся к AGI: обучаем нейросети в экосистеме эволюционно с нуля

@LanskoyGames

Будильник для зимы: как я подружил лампу Ильича, ZigBee и LLM

@gliderman

Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене

@DankosJP

Учимся правильно использовать ИИ при разработке программного обеспечения

@rsashka

Запускаем LLM на iPhone локально — мой опыт с Gemma 2B

@Dmitrii-Chashchin

AI+RAG в системе отчетности

@SmartSmall

Upgrade: OpenSpec и Beads в Cursor

@comerc

Сбер проник в n8n и фильтрует нам лидов: как мы подключили Отечественную нейросеть к автоматизациям

@Aleron75

Гибридная нейросимвольная архитектура для превращения вероятностных ответов LLM в детерминированный код

@leleleonid

Зачем ИИ системному аналитику

@BA_TW

Не читал, но одобряю: пишем софт для быстрого анализа пользовательских соглашений

@beatwad

Сыч: телеграм-бот, который помнит обиды и обходит лимиты Google Gemini

@VetaOne

Вайбкодинг с нейросетью 1: проверяю сборку Flutter-приложения в AppImage

@Arduinum

Как ИИ помогает проектировать базы данных

@Rikkster

Избавляемся от ошибок Segmentation fault из-за переполнения стека в С++

@rsashka

Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B)

@Dmitrii-Chashchin

TSP трансформеры

@welcome2hype

Эксперимент по подстройке Gemma 3 для вызова процедур

@DSDenisov

Data-Feeling-School-RAG-Challenge или по ту сторону баррикад

@IgorSh63

От 4/10 до 8.5/10: как я за 5 итераций научил GigaChat извлекать требования из интервью

@aeremenok

Вайб-ЛЛМинг. AI агенты теперь сами обучают LLM с помощью Hugging Face Skills

@Biryukovlex

Как написать код в два счёта: впрягаем Codex с GPT

@zabarov

3 главных инсайта о «взломах» LLM из исследования StrongREJECT

@Ivanich-spb

7 причин, почему ваш ИИ тупит (и как это исправить)

@celen

Multi-API Ensemble: 95% точности транскрипции региональных топонимов

@men10577

Учебник для искусственного разума: как я сделал ИИ-помощника по планированию для 1С:ERP

@parusimore

Обзор проекта WhisperLiveKit — синхронный перевод между любыми языками

@SlavikF

Нейроакварель. Тестируем разные ИИ-решения для создания эффекта живописи красками

@GeorgyKurakin

Roo Code для тестировщика: как превратить обязательные запросы к DeepSeek в реальную пользу

@aeremenok

Оптимизация пагинации в PostgreSQL: Как настройка work_mem превратила ROW_NUMBER в лидера производительности

@pg_expecto

PG_EXPECTO: Анализ влияния размера shared_buffers на производительность СУБД PostgreSQL

@pg_expecto

Как я подключил ИИ к КуМиру: простой способ сделать школьный язык «умным»

@wsda228

Как прикрутить AI к табуретке

@vital_pavlenko

Умеет ли Gemini в TTS и транскрибацию?

@RS_AI

История о том как «Очень хочется, но ты зеленый»

@Infernobeef

Vibe Pentesting: Интегрируем HexStrike AI и OpenCode в Kali Linux

@Chumikov

Ускорение разработки с ИИ на примере DAX и Power BI

@koanse

Нечеловек, который изменил всё: как эффективно работать с ИИ, на примере создания схем бизнес-процессов в BPMN

@parusimore

Инструмент c AI-логикой для создания дерева метрик MetricTree

@v_v_pavloff

Как я делаю «снимок» проекта в JSON для ИИ и разворачиваю его обратно

@zabarov

Kandinsky 5.0 vs Stable Diffusion: практический тест на 6 сценариях для иллюстраций и ассетов

@Efrosim123

Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S

@Ded_Egor

Сделай бота для работы

@AlexeySushkov

Как мы учили ИИ тушить инциденты вместо нас (что из этого вышло)

@Up4Soft

Прогноз нейросети — Когда теория проигрывает практике или почему ROW_NUMBER() не стал королём пагинации PostgreSQL

@pg_expecto

Рассмотрим подробнее лидеров рейтинга и о чём они успели написать за прошедшие два месяца.

Топ-5 победителей сезона

Джун наоборот

Притчей во языцех стало мнение о том, что ИИ работает как джуниор-разработчик. С этим категорически не согласен хабрапользователь @master_program. Для него ИИ — всё-таки джун наоборот. Чтобы доказать это, автор попытался создать код для решения задачи моделирования полёта ракеты в атмосфере. ИИ сгенерировал код, но при перепроверке не смог найти большую часть ошибок. Кроме того, написал аэродинамику и выключил её сам. Подробности — в статье Джун наоборот или разоблачение главного мифа вайб-кодинга.

В геймдев с двух ног

А вот @Lkalyadin10 доказал, что ИИ — это джун. Когда его шестилетняя дочка, которая любит проходить лабиринты, не хотела ложиться спать, он начал разработку собственной игры для неё. Игра выстрелила в топе приложений для Android TV. Как у автора это получилось, читайте в статье Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV. Приятно, что сезон получился полезным и познавательным не только для авторского сообщества, но и для малышей!

Ни капли в рот, ни буквы в код

Представьте, что вы преподаватель и каждый раз заполняете десятки бумажных ведомостей. Пользователь @fedignat решил заменить их android‑приложением для приёма экзаменов и выставления оценок, учёта пересдачи и фиксации IP машины студента, если он работает с компьютера в аудитории. Сначала вайб-кодинг удавался, но в час X во время приёма экзамена первая же оценка просто исчезла. Кейс показал: без понимания разработки даже с ИИ создать надёжный продукт сложно. Так что «эра индивидуальных приложений» ещё не наступила. Читайте подробнее в статье Вайбанутым нет покоя.

Дружба народов

Команда, в которую входит автор @snakers4, провела титаническую работу: после выбора 20 языков собрала голоса носителей на родном и на русском, а затем создала ПО для синтеза речи на этих языках. Теперь любой голос в модели может говорить на всех поддержанных языках. Подробнее о проекте читайте в статье: Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России.

Мой параплан, мой парапла-а-ан…

От программных проектов — к «железу». Пользователь @gliderman решил превратить часы в вибровариометр. Парапланеристы используют вариометры для измерения вертикальной скорости параплана, и не всем нравится, как они пищат. В своём проекте @gliderman решил исправить это, чтобы вместо звука часы подавали тактильный сигнал, вибрировали. Так пилот сможет наслаждаться шумом ветра, а не раздражаться от писка. Что получилась, читайте в статье Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки. Как обычно на Хабре, комментарии имеют огромную ценность: ряд проблем с устройством помогли решить другие пользователи.

Топ-15 победителей сезона

Авторы следующих 10 статей по списку получат по 25 000 рублей. На шестом месте рейтинга – @Ser_no который разбирается, почему разработчики заливают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу», почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.

Автор @rdudov рассказал о мультиагентной разработке в Cursor. В Claude Code есть субагенты: экземпляры того же агента, но с фиксированным промптом и чёткими входными данными. Но не всё так радужно — в Claude Code есть vendor lock на модели Anthropic, а доступ к некоторым моделям дают только дорогие тарифы. Автор разбирал, как такой подход можно запустить в Cursor.

Давно ли вы пытались разобрать ваши снимки, сделанные хотя бы за один год? Или за один отпуск… @virex для решения этой проблемы написал поиск в личном архиве по текстовому описанию. Статья — по ссылке.

@rsashka расшифровывает ИИ не как «искусственный интеллект», а как «иллюзия интеллекта». Его поражает, как можно спорить: есть ли у LLM интеллект, или это всего лишь математические вычисления по определённому алгоритму. Автор считает, что нет смысла создавать рассуждающую иллюзию интеллекта, потому что «имитация разума превращает потенциально полезный рабочий инструмент в игру на бубне без каких-либо гарантий качества и воспроизводимости полученных результатов».

@Dmitrii-Chashchin подготовил чек-лист для разработчика, который способен помочь ИИ не топтаться на месте, создавая выдуманные переменные, кучу дублей файлов и добавляя баги. Автор рассказывает, как создать агента, способного следить за проектом и грамотно фиксить код.

Пришло время добавить немного космоса. В этом нам поможет @Dorial любитель-астроном наблюдает за 3I/ATLAS, получает свежие фото и FITS-файлы и анализирует спектр 3I/ATLAS с помощью собственного Python-pipeline. Автор рассказал, как ИИ открывает двери в науку всем желающим.

Суть метода Mixture-of-Experts: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Автор @full_moon рассказал о том, как работает эта архитектура, какой путь прошла за последние годы, и задаёт нам вопрос: действительно ли за МоЕ будущее или её роль сильно переоценена?

@CyberexTech решил реализовать сервис машинного закадрового перевода видео с помощью общедоступных моделей с локальным запуском. По ссылке в статье посмотрите, что получилось, на примере интервью с Томом Холландом. Интересно, что для проекта использована модель для синтеза Silero Speech, то есть продукт команды, статья которой заняла четвёртое место в этом сезоне.

Подводим итоги

Сезон «ИИ в разработке» наглядно показал: сообществу интересен не сам по себе искусственный интеллект, а его практическая применимость. Наибольшую вовлечённость получили инженерные кейсы, когда ИИ встраивается в реальный процесс разработки со всеми его ограничениями. Границы технологий стали заметнее. ИИ сегодня способен ускорять работу, но легко теряет контекст и не умеет отвечать за результат. Чем выше цена ошибки, тем критичнее роль человека.

Ещё один устойчивый тренд сезона — гибридный подход. Авторы редко ограничивались одним инструментом: одну модель использовали для генерации кода, другую — для анализа и ревью, третью — для речи и изображений. Отдельно стоит отметить роль отечественных моделей. В рамках сезона веса GigaChat использовались как полноценные рабочие инструменты: авторы запускали их локально, встраивали в собственные пайплайны, сравнивали с зарубежными аналогами и отмечали сильные стороны — прежде всего в задачах на русском языке, работе с длинными контекстами, воспроизводимости и контроле над инфраструктурой.

Сезон «ИИ в разработке» завершён. Но разговор о том, как именно и зачем мы используем искусственный интеллект, только начинается. И опыт, которым вы поделились, — в виде кода, проектов и собственных выводов — останется с сообществом навсегда.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.