Рубріки: Новини

Дослідники створили конкурента OpenAI o1 та DeepSeek-R1 менш ніж за $50

Дмитро Сімагін

Дослідники штучного інтелекту зі Стенфорда та Університету Вашингтона (США) опублікували статтю, в якій стверджується, що їм вдалось навчити модель «міркування», аналогічну OpenAI o1 та DeepSeek-R1 за менше ніж $50. Ці гроші знадобилися для оплати хмарних обчислень, пише TechCrunch.

Модель, відома як s1, демонструє в тестах по математиці та програмуванню схожі результати з провідними сучасними моделями. Код моделі s1 доступний на GitHub разом із даними, які використовувались для її навчання.

Команда, яка розробляє s1, повідомила, що вони почали з готової базової моделі, а потім налаштували її за допомогою дистиляції: процесу «витягування» даних з іншої моделі штучного інтелекту. Ці дані необхідні для подальшого навчання на відповідях моделі-донора Google Gemini 2.0 Flash Thinking Experimental. 

У статті розробників s1 стверджується, що моделі міркування можуть бути дистильовані з відносно невеликим набором даних за допомогою процесу, що називається контрольованим тонким налаштуванням (SFT, supervised fine-tuning). У ньому моделі штучного інтелекту явно вказується імітувати певну поведінку в наборі даних.

SFT коштує набагато дешевше, ніж широкомасштабний метод навчання з підкріпленням, який компанія DeepSeek використала для навчання своєї моделі R1.

Google пропонує безкоштовний доступ до Gemini 2.0 Flash Thinking Experimental, хоч і з щоденними обмеженнями, через свою платформу Google AI Studio. Однак умови Google забороняють зворотню розробку своїх моделей для створення сервісів, які конкурують з власними моделями штучного інтелекту. 

Для базового навчання s1 використали невелику готову модель штучного інтелекту від китайської лабораторії Qwen, яка належить Alibaba. Її можна завантажити безкоштовно. Щоб навчити s1, дослідники створили набір даних лише з 1000 ретельно підібраних запитань у поєднанні з відповідями на ці запитання, а також з процесом «мислення», що стоїть за кожною відповіддю з Google Gemini 2.0 Flash Thinking Experimental.

За словами вчених, навчання s1 зайняло менше 30 хвилин із використанням 16 графічних процесорів Nvidia H100. Ніколас Муннігофф, дослідник Стенфордського університету, який працював над проектом, заявив, що сьогодні він може орендувати необхідний для такого навчання комп’ютер приблизно за $20.

Останні статті

FAVBET Tech сплатили ₴650 млн податків у 2025-му. Це 20 тис. дронів або 40 тис. антидронових рушниць

За дев’ять місяців 2025 року українська ІТ-компанія FAVBET Tech перерахувала до державного бюджету понад 650…

24.10.2025

Microsoft додає в Copilot групи з підтримкою до 32 учасників, режим репетитора Learn Live та анімованого помічника

Microsoft впроваджує деякі суттєві зміни до свого помічника Copilot. По-перше, з’явилася нова функція груп, яка…

24.10.2025

У Google Meet з’явились «кімнати очікування»

Компанія Google додає в свій сервіс відеозв'язку Meet «кімнати очікування», які покращують контроль над онлайн-зустріччю…

24.10.2025

ChatGPT тепер може аналізувати внутрішні корпоративні дані

OpenAI додає в ChatGPT функцію під назвою Company knowledge. Вона працює на базі версії GPT-5,…

24.10.2025

PyTorch представляє Monarch — фреймворк для програмування на тисячах комп’ютерів

Команда PyTorch випустила фреймворк з відкритим кодом Monarch, який дозволяє Python-розробникам програмувати розподілені системи так,…

24.10.2025

Агент Cursor врятував розробника від хакера, який видавав себе за українця

Розробник Девід Додда каже, що був лише «за 30 секунд» від запуску шкідливого програмного забезпечення…

24.10.2025