Рубріки: Новини

Реліз LLM-моделі DeepSeek R2 затримується. Причина в Nvidia

Дмитро Сімагін

Китайська компанія DeepSeek зазнала невдачі в розробці нової LLM-моделі R2, оскільки їй не вдалось отримати достатню кількість графічних процесорів Nvidia. Про це повідомляє Silicon Angle.

Два анонімних джерела, знайомих з проблемами DeepSeek, повідомили, що компанія вже кілька місяців працює над R2, але для успішного завершення навчання моделі не вистачає потужних графічних процесорів.

DeepSeek здобула популярність на початку цього року, після релізу LLM-моделі R1. Вона виявилася здатною конкурувати з найсучаснішими американськими моделями від компаній OpenAI, Anthropic і Meta, незважаючи на те, що її вартість навчання була значно нижчою, ніж у конкурентів.

Фахівці DeepSeek навчали R1 на кластері з 50 000 графічних процесорів, який включав близько 10 000 відеокарт H100, 10 000 відеокарт H800 та близько 30 000 менш потужних графічних процесорів H20, спеціально розроблених для китайського ринку.

Китайські компанії ніколи не мали можливості легально придбати графічні процесори H100 або H800. Вважається, що деякі з них були таємно поставлені для DeepSeek її інвестором High-Flyer Capital Management, а інші були придбані через підставні компанії. Графічні процесори H20 були отримані легально, але з того часу їх теж стало важко знайти через нові санкції США, які забороняють експорт потужних GPU до Китаю.

Графічний процесор H20 можна порівняти з H100, який Nvidia продає західним компаніям, але його пропускна здатність та підключення навмисно обмежені. Це зроблено для того, щоб відповідати вимогам експортного контролю. Пізніше адміністрація президента Трампа вирішила, що навіть цей спрощений чіп занадто потужний для поставок геополітичному конкуренту США. Тому в квітні 2025 року були запроваджені нові обмеження щодо поставок у КНР.

Повідомляється, що це рішення суттєво зашкодило роботі китайських розробників штучного інтелекту. Хоча в КНР існують деякі місцеві альтернативи, такі як чіпсет Ascend 910B від Huawei, вони менш потужні, ніж H20, і їм бракує підтримки програмного стеку Nvidia CUDA – архітектури програмування, яка використовується для оптимізації програм і моделей штучного інтелекту при роботи на графічних процесорах Nvidia. Це створює проблему, оскільки вважається, що практично всі китайські розробники штучного інтелекту використовують програмне забезпечення CUDA.

 

Останні статті

Google випускає Agent Development Kit (ADK) для Java: новий рівень створення ШІ-агентів

Компанія Google оголосила про запуск Agent Development Kit (ADK), спеціально розробленого для мови програмування Java.…

02.04.2026

Європейців закликали масово переходити на дистанційну роботу

Керівництво Європейського Союзу офіційно заявило про необхідність негайного зниження попиту на пальне. Для цього треба…

02.04.2026

Google зобов’язує розробників програм для Wear OS перейти на 64-бітну архітектуру

Компанія Google офіційно оголосила про впровадження обов’язкової підтримки 64-бітних архітектур для всіх застосунків платформи Wear…

02.04.2026

Як почати розмовляти з legacy-інфраструктурою і спростити життя розробникам

Сьогодні більшість нових систем створюються з використанням контейнерів та хмарної інфраструктури. Але в реальному корпоративному…

02.04.2026

Cтруктуровані промпти підвищують точність моделі до 93% — дослідження Meta

Дослідники компанії Meta розробили новий підхід до використання великих мовних моделей (LLM) для аналізу програмного…

02.04.2026

Google DeepMind розкриває секрети: шість способів, як зламати ШІ-агента

Нове дослідження від Google DeepMind попереджає: поки ми навчаємось працювати з автономними ШІ-агентами, які здатні…

02.04.2026