Рубріки: Новини

Реліз LLM-моделі DeepSeek R2 затримується. Причина в Nvidia

Дмитро Сімагін

Китайська компанія DeepSeek зазнала невдачі в розробці нової LLM-моделі R2, оскільки їй не вдалось отримати достатню кількість графічних процесорів Nvidia. Про це повідомляє Silicon Angle.

Два анонімних джерела, знайомих з проблемами DeepSeek, повідомили, що компанія вже кілька місяців працює над R2, але для успішного завершення навчання моделі не вистачає потужних графічних процесорів.

DeepSeek здобула популярність на початку цього року, після релізу LLM-моделі R1. Вона виявилася здатною конкурувати з найсучаснішими американськими моделями від компаній OpenAI, Anthropic і Meta, незважаючи на те, що її вартість навчання була значно нижчою, ніж у конкурентів.

Фахівці DeepSeek навчали R1 на кластері з 50 000 графічних процесорів, який включав близько 10 000 відеокарт H100, 10 000 відеокарт H800 та близько 30 000 менш потужних графічних процесорів H20, спеціально розроблених для китайського ринку.

Китайські компанії ніколи не мали можливості легально придбати графічні процесори H100 або H800. Вважається, що деякі з них були таємно поставлені для DeepSeek її інвестором High-Flyer Capital Management, а інші були придбані через підставні компанії. Графічні процесори H20 були отримані легально, але з того часу їх теж стало важко знайти через нові санкції США, які забороняють експорт потужних GPU до Китаю.

Графічний процесор H20 можна порівняти з H100, який Nvidia продає західним компаніям, але його пропускна здатність та підключення навмисно обмежені. Це зроблено для того, щоб відповідати вимогам експортного контролю. Пізніше адміністрація президента Трампа вирішила, що навіть цей спрощений чіп занадто потужний для поставок геополітичному конкуренту США. Тому в квітні 2025 року були запроваджені нові обмеження щодо поставок у КНР.

Повідомляється, що це рішення суттєво зашкодило роботі китайських розробників штучного інтелекту. Хоча в КНР існують деякі місцеві альтернативи, такі як чіпсет Ascend 910B від Huawei, вони менш потужні, ніж H20, і їм бракує підтримки програмного стеку Nvidia CUDA – архітектури програмування, яка використовується для оптимізації програм і моделей штучного інтелекту при роботи на графічних процесорах Nvidia. Це створює проблему, оскільки вважається, що практично всі китайські розробники штучного інтелекту використовують програмне забезпечення CUDA.

 

Останні статті

Користувачі Copilot отримали безкоштовний доступ до моделі міркування GPT-5

Додаток Copilot від Microsoft для Windows 11 (і Windows 10) тепер підтримує розширений режим міркування…

13.08.2025

Через шахрайства зі штучним інтелектом Google та інші IT-компанії повертаються до особистих співбесід

Все більше IT-компаній почали повертатися до формату особистих співбесід при прийомі на роботу. Це допомагає…

13.08.2025

Мова програмування Go оновлена до версії 1.25

Після шести місяців роботи над проектом команда підтримки мови програмування Go представила реліз 1.25. Розробники…

13.08.2025

Оновлення ChatGPT: новий тарифний план за $5, інтеграція Gmail, Календаря та Контактів

OpenAI оновлює тарифи на користування чат-ботом ChatGPT, включивши до існуючого переліку новий план Go, який…

13.08.2025

Хмарна vs локальна: як обрати ідеальну СRM і що вона повинна вміти

Як бізнесу в Україні не втрачати ефективність попри нестачу кадрів, з якою доводиться боротися в…

13.08.2025

Claude Sonnet 4 тепер може обробляти цілі програмні проекти за один запит

Компанія Anthropic оголосила про збільшення контекстного меню Claude Sonnet 4 в п'ять разів. Це означає,…

13.08.2025