Рубріки: Новини

Google випустила модель міркування Gemini Deep 2.5 Think, яка одночасно тестує кілька ідей

Дмитро Сімагін

Команда Google DeepMind випустила Gemini 2.5 Deep Think — модель міркування, яка здатна відповідати на запитання, писати код, досліджувати та розглядати кілька ідей одночасно, а потім використовувати отримані результати для вибору найкращої відповіді. Про це пише TechCrunch.

Починаючи з сьогоднішнього дня передплатники Google Ultra отримають доступ до Gemini 2.5 Deep Think у додатку Gemini. Доступ через Gemini API буде надано обраній групі тестувальників найближчими тижнями.

Gemini 2.5 Deep Think, яку вперше продемонстрували в травні на конференції Google I/O 2025, є першою загальнодоступною мультиагентною моделлю Google. На відміну від інших LLM, вона використовує кілька агентів для паралельного розв’язання задачі. Цей процес вимагає значно більше обчислювальних ресурсів, ніж робота з одним агентом, але зазвичай дає більш якісні результати.

Компанія Google використала модифікацію Gemini 2.5 Deep Think, щоб вибороти золоту медаль на Міжнародній математичній олімпіаді (IMO) цього року.

Остання версія Gemini 2.5 Deep Think значно вдосконалена порівняно з тим, що було представлено на конференції I/O. Представники Google стверджують, що компанія розробила нові методи навчання з підкріпленням, які дозволяють Gemini 2.5 Deep Think краще використовувати свої логічні шляхи.

«Deep Think може допомогти людям вирішувати проблеми, що вимагають творчого підходу, стратегічного планування та поетапного вдосконалення», — пояснюється в блозі Google.

Gemini 2.5 Deep Think демонструє найвищу продуктивність на «Останньому іспиті людства» (Humanity’s Last Exam, HLE) — складному тесті, що оцінює здатність LLM-моделі відповідати на тисячі питань з математики, гуманітарних наук та природничих наук. Модель набрала 34,8% балів на HLE (без використання інструментів), у той час як Grok 4 від xAI набрав 25,4%, а G3 від OpenAI – 20,3%.

Google також заявляє, що Gemini 2.5 Deep Think перевершує моделі штучного інтелекту від OpenAI, xAI та Anthropic у LiveCodeBench6 – складному тесті на виконання завдань програмування. Модель Google набрала 87,6%, у той час як Grok 4 набрав 79%, а o3 від OpenAI – 72%.

Gemini 2.5 Deep Think автоматично працює з такими інструментами, як виконання коду та пошук у Google. 

Останні статті

Використання штучного інтелекту знижує розуміння кодової бази та перешкоджає розвитку розробників — дослідження Anthropic

Застосування інструментів на базі штучного інтелекту підвищує продуктивність, але знижує розуміння кодової бази та перешкоджає…

30.01.2026

ChatGPT Agent втратив 75% користувачів, оскільки ніхто не знає, для чого він потрібен

Компанія OpenAI може відмовитися від ChatGPT Agent — інструменту, який випустили лише шість місяців тому.…

30.01.2026

Експерти попередили про небезпеку LLM-моделей з відкритим кодом

У дослідженні, яке спільно провели компанії з кібербезпеки SentinelOne та Censys, стверджується, що LLM-моделі з…

30.01.2026

Онлайн перемагає офлайн? Зібрали досвід сучасних шкіл та ділимось, як технології допомагають навчатися краще

Ще кілька років тому дистанційне навчання сприймали як вимушений компроміс. Батьки чекали, коли світ повернеться…

30.01.2026

Google відкрила доступ до генератора ігрових світів Project Genie

Експериментальний генератор інтерактивних ігрових світів Project Genie від Google, який створює 3D-середовища з текстових або…

30.01.2026

Гейм-розробники більше не хочуть створювати ігри для Xbox

Платформи Steam та Windows лідирують в геймдеві, оскільки підтримка консолей, здається, більше не є пріоритетом…

30.01.2026