Рубріки: Новини

DeepSeek випускає нову модель V4 Pro. Вона має 1,6 трильйона параметрів і дуже дешева

Дмитро Сімагін

Китайська компанія DeepSeek представила свій новий флагман — LLM-модель DeepSeek-V4. Рівно через рік після свого першого гучного прориву розробники випустили систему, яка не просто наздоганяє лідерів галузі, а й задає нові стандарти економічної доцільності, пише Engadget.

Як і більшість конкурентів, V4 має дві версії — потужну DeepSeek V4 Pro та «стандартну» V4 Flash. Флагманська модель V4 Pro має рекордну кількість параметрів — 1,6 трильйона (49 млрд активних). DeepSeek-V4-Flash має 284 мільярди параметрів (13 млрд активних). Обидві моделі підтримують контекстне вікно розміром до 1 мільйону токенів.

Ще однією перевагою новинки є те, що DeepSeek V4 Pro коштує $1,74 за 1 млн вхідних токенів та $3,48 за 1 млн вихідних токенів, тоді як V4 Flash коштує $0,14/1 млн та $0,28/1 млн. Це робить обидві моделі найдешевшими у своєму класі. 

DeepSeek зазначає, що V4 оптимізовано для використання з популярними інструментами агентного кодування, такими як Claude Code від Anthropic та OpenClaw.

Так само, як і минулорічний реліз R1, нова модель DeepSeek також має відкритий вихідний код. Це дозволяє користувачам завантажувати її код та змінювати його за бажанням. DeepSeek стверджує, що V4 Pro успішно конкурує з провідними американськими моделями із закритим вихідним кодом, коли справа доходить до міркувань. Зазначається, що вона поступається лише Gemini-3.1-Pro за багатством знань про світ.

За словами головного аналітика Counterpoint з питань штучного інтелекту, Вей Суня, у порівняльному аналізі V4 може запропонувати «відмінні можливості агента за значно нижчою ціною».

Заснована у 2023 році, компанія DeepSeek привернула увагу наприкінці 2024 року завдяки своїй безкоштовній моделі V3 з відкритим кодом, яка, за її словами, була навчена на менш потужних чіпах і коштувала значно дешевше, ніж моделі, створені такими компаніями, як OpenAI та Google.

Кілька тижнів потому, у січні 2025 року, вона випустила модель міркування R1, яка досягла аналогічних показників або перевершила багато провідних світових LLM.

Нагадаємо, затримка з релізом DeepSeek пояснюється тим, що китайські чиновники наполягали, щоб компанія навчала свою модель на вітчизняному обладнанні Huawei.

Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn

Останні статті

Україна обирає представника для глобального фіналу Startup World Cup 2026 у Кремнієвій долині

Українські технологічні проєкти мають шанс заявити про себе на світовій арені. Відкрито прийом заявок на…

24.04.2026

Microsoft шукає «добровольців» на звільнення: пропонують річну зарплату, але не всім

Корпорація Microsoft пропонує частині своїх досвідчених співробітників у США залишити посаду добровільно, запроваджуючи програму викупу…

24.04.2026

Audi та Volkswagen переходять на китайський штучний інтелект: Alibaba Qwen лідирує

Китайський технологічний гігант Alibaba оголосив про масштабне розширення своєї присутності на ринку електроавтомобілів. Велика мовна…

24.04.2026

Вайб-воркінг: Microsoft дозволить агентам працювати за вас у Word та Excel

Компанія Microsoft розширює застосування концепції під назвою Vibe Working (вайб-воркінг) та спеціального режиму роботи Agent…

24.04.2026

OpenAI повертає лідерство: GPT-5.5 випередила Claude Opus 4.7 у ключовому бенчмарку Terminal-Bench 2.0

Компанія OpenAI представила GPT-5.5 — нову LLM-модель, орієнтовану на виконання складних багатоетапних завдань з мінімальним…

24.04.2026

Тім Кук розповів про свою найбільшу помилку на посаді CEO Apple

Тім Кук вирішив озирнутись на роки правління компанією, виділивши два полярні моменти: запуск Apple Maps…

24.04.2026