Рубріки: Новини

Реліз LLM-моделі DeepSeek R2 затримується. Причина в Nvidia

Дмитро Сімагін

Китайська компанія DeepSeek зазнала невдачі в розробці нової LLM-моделі R2, оскільки їй не вдалось отримати достатню кількість графічних процесорів Nvidia. Про це повідомляє Silicon Angle.

Два анонімних джерела, знайомих з проблемами DeepSeek, повідомили, що компанія вже кілька місяців працює над R2, але для успішного завершення навчання моделі не вистачає потужних графічних процесорів.

DeepSeek здобула популярність на початку цього року, після релізу LLM-моделі R1. Вона виявилася здатною конкурувати з найсучаснішими американськими моделями від компаній OpenAI, Anthropic і Meta, незважаючи на те, що її вартість навчання була значно нижчою, ніж у конкурентів.

Фахівці DeepSeek навчали R1 на кластері з 50 000 графічних процесорів, який включав близько 10 000 відеокарт H100, 10 000 відеокарт H800 та близько 30 000 менш потужних графічних процесорів H20, спеціально розроблених для китайського ринку.

Китайські компанії ніколи не мали можливості легально придбати графічні процесори H100 або H800. Вважається, що деякі з них були таємно поставлені для DeepSeek її інвестором High-Flyer Capital Management, а інші були придбані через підставні компанії. Графічні процесори H20 були отримані легально, але з того часу їх теж стало важко знайти через нові санкції США, які забороняють експорт потужних GPU до Китаю.

Графічний процесор H20 можна порівняти з H100, який Nvidia продає західним компаніям, але його пропускна здатність та підключення навмисно обмежені. Це зроблено для того, щоб відповідати вимогам експортного контролю. Пізніше адміністрація президента Трампа вирішила, що навіть цей спрощений чіп занадто потужний для поставок геополітичному конкуренту США. Тому в квітні 2025 року були запроваджені нові обмеження щодо поставок у КНР.

Повідомляється, що це рішення суттєво зашкодило роботі китайських розробників штучного інтелекту. Хоча в КНР існують деякі місцеві альтернативи, такі як чіпсет Ascend 910B від Huawei, вони менш потужні, ніж H20, і їм бракує підтримки програмного стеку Nvidia CUDA – архітектури програмування, яка використовується для оптимізації програм і моделей штучного інтелекту при роботи на графічних процесорах Nvidia. Це створює проблему, оскільки вважається, що практично всі китайські розробники штучного інтелекту використовують програмне забезпечення CUDA.

 

Останні статті

OpenAI випустила гайд для розробників, як писати промпти з GPT-5.1

Компанія OpenAI опублікувала розширений посібник для розробників з рекомендаціями застосування нової LLM-моделі GPT-5.1. В документі…

17.11.2025

PyPI посилює перевірку користувачів після зміни пристрою авторизації

Розробники репозиторію Python-пакетів PyPI (Python Package Index) запровадили додаткову перевірку під час авторизації. Тепер від…

17.11.2025

Новий сервіс Code Wiki від Google сам пише та оновлює документацію для GitHub-репозиторіїв

Компанія Google представила новий проект Code Wiki — сервіс, який автоматично генерує технічну документацію для…

17.11.2025

В оновленому Visual Studio Code з’явився Agent HQ — центр управління агентами кодування

Редактор коду Visual Studio Code отримав чергове оновлення. У релізі 1.106 з'явився Agent HQ —…

17.11.2025

ІТ-компанії, засновані українцями в США, генерують $23,2 млрд доходу і створили 130 000 робочих місць

Американські компанії, засновані вихідцями з України, генерують майже $60 млрд річного доходу в США та…

17.11.2025

Microsoft заблокувала популярний спосіб офлайн-активації Windows

Microsoft відключила один із найвідоміших «напівлегальних» способів активації Windows — офлайн-метод KMS38. Він дозволяв продовжувати…

14.11.2025