DeepSeek випускає нову модель V4 Pro. Вона має 1,6 трильйона параметрів і дуже дешева
Китайська компанія DeepSeek представила свій новий флагман — LLM-модель DeepSeek-V4. Рівно через рік після свого першого гучного прориву розробники випустили систему, яка не просто наздоганяє лідерів галузі, а й задає нові стандарти економічної доцільності, пише Engadget.
Як і більшість конкурентів, V4 має дві версії — потужну DeepSeek V4 Pro та «стандартну» V4 Flash. Флагманська модель V4 Pro має рекордну кількість параметрів — 1,6 трильйона (49 млрд активних). DeepSeek-V4-Flash має 284 мільярди параметрів (13 млрд активних). Обидві моделі підтримують контекстне вікно розміром до 1 мільйону токенів.
Ще однією перевагою новинки є те, що DeepSeek V4 Pro коштує $1,74 за 1 млн вхідних токенів та $3,48 за 1 млн вихідних токенів, тоді як V4 Flash коштує $0,14/1 млн та $0,28/1 млн. Це робить обидві моделі найдешевшими у своєму класі.
DeepSeek зазначає, що V4 оптимізовано для використання з популярними інструментами агентного кодування, такими як Claude Code від Anthropic та OpenClaw.
Так само, як і минулорічний реліз R1, нова модель DeepSeek також має відкритий вихідний код. Це дозволяє користувачам завантажувати її код та змінювати його за бажанням. DeepSeek стверджує, що V4 Pro успішно конкурує з провідними американськими моделями із закритим вихідним кодом, коли справа доходить до міркувань. Зазначається, що вона поступається лише Gemini-3.1-Pro за багатством знань про світ.
За словами головного аналітика Counterpoint з питань штучного інтелекту, Вей Суня, у порівняльному аналізі V4 може запропонувати «відмінні можливості агента за значно нижчою ціною».
Заснована у 2023 році, компанія DeepSeek привернула увагу наприкінці 2024 року завдяки своїй безкоштовній моделі V3 з відкритим кодом, яка, за її словами, була навчена на менш потужних чіпах і коштувала значно дешевше, ніж моделі, створені такими компаніями, як OpenAI та Google.
Кілька тижнів потому, у січні 2025 року, вона випустила модель міркування R1, яка досягла аналогічних показників або перевершила багато провідних світових LLM.
Нагадаємо, затримка з релізом DeepSeek пояснюється тим, що китайські чиновники наполягали, щоб компанія навчала свою модель на вітчизняному обладнанні Huawei.
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn













Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: