Gemini 3.1 Pro
Модели ИИ теперь не просто генерируют текст, а действительно «думают» и решают сложные задачи. Gemini 3.1 Pro показала 77% на тесте логики — это вдвое лучше предшественника.
В ноябре Google выпустила Gemini 3 Pro. А в феврале — уже 3.1 Pro. Получается, за три месяца они сделали модель, которая мыслит в два раза лучше. Меня это зацепило.
Что изменилось в 3.1 Pro
Google называет это «upgraded core intelligence» — прокачанное ядро мышления. Раньше модели хорошо справлялись с задачами, где нужно просто повторить паттерн из обучающих данных. Теперь речь идёт о способности решать новые логические задачи, которые модель никогда не видела.
На бенчмарке ARC-AGI-2 (это тест, где нужно уловить абсолютно новую логическую закономерность) Gemini 3.1 Pro набрала 77,1%. Это больше, чем вдвое лучше результата 3 Pro.
Сравнение моделей серии Gemini
─────────────────────────────
3 Pro ████████░░ ~35%
3.1 Pro ██████████ 77.1%
↑
Вдвое лучше в reasoning
Для нас, разработчиков, это значит одно: модель теперь может браться за задачи, где простой ответ не подойдёт. Где нужно подумать, посчитать, синтезировать информацию из разных источников.
Что она умеет делать
В посте приведены несколько демок, которые показывают возможности. Давайте разберём:
Анимированные SVG из текста. Модель генерирует код, который создаёт векторную анимацию. Поскольку это код, а не пиксели, картинка остаётся чёткой при любом масштабе и весит копейки. Никаких тяжёлых видеофайлов.
Дашборд для аэрокосмических данных. Модель сама подключилась к публичному потоку телеметрии (это когда данные передаются дистанционно) и построила визуализацию орбиты МКС. Сложные API — в удобный интерфейс. Сама.
3D-муравейник (murmuration). Это когда птицы летают огромными стаями, образуя живые узоры. Модель не просто нарисовала картинку — сделала интерактивный опыт, где можно управлять стаей руками и слушать музыку, которая генерируется в реальном времени и меняется от движения птиц.
Веб-сайт по мотивам «Грозового перевала». Модель проанализировала атмосферу романа и сделала современный портфолио, которое её передаёт. Не просто резюме текста — а дизайн-концепция.
Все эти примеры объединяет одно: модель не просто генерирует контент, а рассуждает над задачей, понимает контекст и создаёт что-то осмысленное.
Где попробовать
Google раздаёт доступ сразу везде:
- Разработчики: Gemini API в Google AI Studio, Gemini CLI, Antigravity (платформа для агентной разработки), Android Studio
- Бизнес: Vertex AI, Gemini Enterprise
- Обычные пользователи: Gemini app, NotebookLM
Для подписчиков Google AI Pro и Ultra лимиты уже повышены. В превью.
Куда катится доступность Gemini 3.1 Pro
─────────────────────────────────────────
Разработчики ───────────────────────────▶
│
Бизнес ─────────────────────────────────▶
│
Обычные юзеры ──────────────────────────▶ Скоро
Честно говоря
Меня радует направление. Ещё год назад все гнались за размером контекстного окна и скоростью токенов. Сейчас — за качеством мышления. Это важнее.
Google выпускает 3.1 Pro в превью, потому что хотят проверить обновления и доработать агентные рабочие процессы (agentic workflows). Это когда модель не просто отвечает на запрос, а выполняет многошаговые задачи: поняла цель → разбила на подзадачи → выполнила → проверила результат.
Модель уже может сама собрать дашборд из открытых данных. Через пару лет, может, и целые приложения будет писать. Не с нуля, конечно, но каркас — запросто.
Интересно посмотреть, что будет в финальном релизе.
Ссылки
- Официальный анонс Gemini 3.1 Pro — анонс модели в блоге Google
- Google AI Studio — песочница для экспериментов с Gemini
- Vertex AI — Enterprise-платформа для ML
- NotebookLM — AI-помощник для работы с документами