Реліз LLM-моделі DeepSeek R2 затримується. Причина в Nvidia
Китайська компанія DeepSeek зазнала невдачі в розробці нової LLM-моделі R2, оскільки їй не вдалось отримати достатню кількість графічних процесорів Nvidia. Про це повідомляє Silicon Angle.
Два анонімних джерела, знайомих з проблемами DeepSeek, повідомили, що компанія вже кілька місяців працює над R2, але для успішного завершення навчання моделі не вистачає потужних графічних процесорів.
DeepSeek здобула популярність на початку цього року, після релізу LLM-моделі R1. Вона виявилася здатною конкурувати з найсучаснішими американськими моделями від компаній OpenAI, Anthropic і Meta, незважаючи на те, що її вартість навчання була значно нижчою, ніж у конкурентів.
Фахівці DeepSeek навчали R1 на кластері з 50 000 графічних процесорів, який включав близько 10 000 відеокарт H100, 10 000 відеокарт H800 та близько 30 000 менш потужних графічних процесорів H20, спеціально розроблених для китайського ринку.
Китайські компанії ніколи не мали можливості легально придбати графічні процесори H100 або H800. Вважається, що деякі з них були таємно поставлені для DeepSeek її інвестором High-Flyer Capital Management, а інші були придбані через підставні компанії. Графічні процесори H20 були отримані легально, але з того часу їх теж стало важко знайти через нові санкції США, які забороняють експорт потужних GPU до Китаю.
Графічний процесор H20 можна порівняти з H100, який Nvidia продає західним компаніям, але його пропускна здатність та підключення навмисно обмежені. Це зроблено для того, щоб відповідати вимогам експортного контролю. Пізніше адміністрація президента Трампа вирішила, що навіть цей спрощений чіп занадто потужний для поставок геополітичному конкуренту США. Тому в квітні 2025 року були запроваджені нові обмеження щодо поставок у КНР.
Повідомляється, що це рішення суттєво зашкодило роботі китайських розробників штучного інтелекту. Хоча в КНР існують деякі місцеві альтернативи, такі як чіпсет Ascend 910B від Huawei, вони менш потужні, ніж H20, і їм бракує підтримки програмного стеку Nvidia CUDA – архітектури програмування, яка використовується для оптимізації програм і моделей штучного інтелекту при роботи на графічних процесорах Nvidia. Це створює проблему, оскільки вважається, що практично всі китайські розробники штучного інтелекту використовують програмне забезпечення CUDA.
Додаток Copilot від Microsoft для Windows 11 (і Windows 10) тепер підтримує розширений режим міркування…
Все більше IT-компаній почали повертатися до формату особистих співбесід при прийомі на роботу. Це допомагає…
Після шести місяців роботи над проектом команда підтримки мови програмування Go представила реліз 1.25. Розробники…
OpenAI оновлює тарифи на користування чат-ботом ChatGPT, включивши до існуючого переліку новий план Go, який…
Як бізнесу в Україні не втрачати ефективність попри нестачу кадрів, з якою доводиться боротися в…
Компанія Anthropic оголосила про збільшення контекстного меню Claude Sonnet 4 в п'ять разів. Це означає,…