3 марта 2026 года компания OpenAI официально представила GPT-5.3 Instant - новую базовую модель для своего флагманского чат-бота. В отличие от предыдущих номерных релизов, где главный упор делался на наращивание вычислительной мощности, в этот раз разработчики сосредоточились на пользовательском опыте и масштабной работе над ошибками.
Обновление вышло в непростое для компании время, но принесло именно то, о чем пользователи просили последние несколько месяцев: адекватность, точность и избавление от излишней опеки. Разберемся, что изменилось в новой версии ChatGPT и на примерах проверим - все ли так, как заявляют.
Но перед тем как мы перейдем к тестам, давайте закроем базовый вопрос. Оплачивать ChatGPT в современных реалиях можно двумя путями: через специализированные сервисы или с помощью виртуальных карт.
Первый способ скоро станет максимально простым и интуитивно понятным. На нашей платформе Paybeam появится возможность напрямую оплачивать GPT и другие нейросети.
Второй вариант предполагает самостоятельный выбор. Чтобы сэкономить время ознакомьтесь с рейтингом виртуальных карт на нашем сайте. Заходите, сравниваете условия сервисов и выбираете подходящую виртуальную карту, чтобы легально оплатить свой аккаунт ChatGPT. Обратите внимание, что в рейтинге собраны по несколько видов карт одного сервиса, которые отличаются по условиям.
А теперь вернемся к самой модели.
Одной из весомых проблем GPT-5.2 Instant - была её манера формирования ответа. Она могла отказаться отвечать на абсолютно безобидные запросы из-за перестраховки, а перед полезным ответом выдавала длинные моральные нотации.
Как же изменилось поведение ИИ?
По заявлениям Сэма Альтмана - нам обещают полное исчезновение перестраховочных оговорок. Т.е., если вопрос и так понятен, то ChatGPT сразу переходит к сути.
Далее, модель перестала использовать своеобразные штампы и делать необоснованные предположения об эмоциональном состоянии пользователя с сопутствующими психологическими советами и чек-листами.
Ну и, собственно, так называемые “необоснованные отказы” должны были заметно сократить свое количество. Что означает для нас - блокировку только тех запросов, которые прямо нарушают политику безопасносности Open AI.
Это мы все помним, все понимаем, так что - давайте попробуем проверить самый сложный крайний пункт.
В чем специфика моделируемой ситуации. Есть такая история - SEO. Поисковая оптимизация, ключевые запросы, тайтлы-дескрипшены и т.д. Все, наверное, про это слышали. И делится эта история на “белое SEO” и “черное SEO”, т.е. на легальные и нелегальные способы продвижения. И вот как раз в “черном SEO” для Яндекса присутствует история с нечестной манипуляцией поисковой выдачей, через накрутку поведенческих факторов. Это когда боты имитируют действия живых людей и определенной своей активностью - обманывают алгоритмы нашей любимой отечественной корпорации. И вот для борьбы с этими мошенниками - есть система Антифрод. Вот мы попробуем проверить - пройдет ли запрос по рекомендациям обхода.
Пишем промпт для GPT-5.2:
Отправляем в нейросеть и получаем ответ с отказом:
Теперь пробуем тот же подход с GPT-5.3:
Как мы видим - модель спокойно расписала то, что у нее получилось найти. Да, по сути, ничего такого в нашем вопросе то и не было, но, тем не менее, результат можно зафиксировать.
Помимо изменения характера ответов, GPT-5.3 Instant получил серьезные технические улучшения, касающиеся работы с фактами. По данным внутренних тестов OpenAI, количество выдуманных фактов существенно снизилось:
На 26,8% при поиске актуальной информации в интернете.
На 19,7% при ответах, основанных исключительно на внутренней базе знаний модели.
Давайте проверим, дорогие читатели.
Опять очень нишевый, но показательный пример с небольшой предысторией. Недавно все вебмастера были шокированы изменениями ИКС (индекс качества сайта) у своих ресурсов. Это такая, по сути, не особо важная, но многими отслеживаемая пузометрика от Яндекса.
Отправляем промпт с задачей на веб-серч для GPT-5.2:
И получаем вот такой ответ:
Что-то есть, но, если честно - не густо. Событие было весьма обсуждаемое.
Переходим в GPT-5.3:
Результаты лучше, а источников с описанием - больше.
Теперь придумаем ситуацию и выведем модель на генерацию галлюцинаций, придумывание и притягиванию фактов. Итак, мы заведомо знаем, что в Яндекс Директе - нет такого понятия, как “теневой клик”. Давайте зададим промпт для ChatGPT 5.2:
Результат:
Модель лезет в справку Яндекса и понимает, что нет такого понятия, но, тем не менее - придумывает его и выводит две формулы:
и
А в варианте ChatGPT 5.3:
Коротко и понятно. “Теневого клика” - нет. “CTR” - есть.
Да, нельзя утверждать, что модель стала лучше кардинально. Нельзя утверждать, что правки явно улучшат или ухудшат поведение, да и любые тесты, в конечном итоге, всегда можно притянуть к любому результату, ведь речь про LLM, которые, прошу заметить, не придумывают результаты, а подбирают. Пока нет речи о том, что этот релиз перевернет рынок. Все-таки, даже по официальным заверениям Альтмана - разница в десятки процентов.
Мы хотели проверить, есть ли изменения или нам подсунули новость - ради новости. И изменения есть.
Модель GPT-5.3 Instant уже развернута и стала моделью по умолчанию абсолютно для всех пользователей ChatGPT, включая владельцев бесплатных аккаунтов.
Разработчики могут получить доступ к новинке через API под названием gpt-5.3-chat-latest (контекстное окно составляет 128k токенов). Базовая стоимость:
$1.75 за 1 млн токенов на вход (input).
$14.00 за 1 млн токенов на выход (output).
И вот тут, если честно, большой вопрос - стоит ли оперативно переводить свои продукты на новую версию. По крайне мере, неплохо было бы дождаться обновления на более сложных аналитических версиях Thinking и Pro. Их выход обещали в ближайшее время.
А вы уже протестировали новинку? Делитесь мнением в комментариях.
Источник


