Рубріки: Новини

Docker запускає сервіс для локальної розробки та запуску моделей штучного інтелекту

Дмитро Сімагін

Компанія Docker, відома своїми контейнерними інструментами розробки програмного забезпечення, запустила новий сервіс під назвою Docker Model Runner. Він допомагає розробникам створювати та запускати моделі штучного інтелекту локально на власному обладнанні та в рамках існуючих робочих процесів. 

Незважаючи на те, що локальна розробка штучного інтелекту стає все більш популярною, оскільки забезпечує перевагу з точки зору продуктивності та вартості моделі, вона залишається доволі складною. Наприклад, розробникам часто доводиться інтегрувати кілька інструментів і налаштовувати свої інфраструктурні середовища вручну, одночасно керуючи своїми моделями окремо від робочих процесів контейнерів. Досі не існує стандартизованого способу зберігання, спільного використання чи обслуговування LLM-моделей. 

Docker Model Runner — сервіс, доступний як частина релізу Docker Desktop 4.40, робить створення та запуск моделі штучного інтелекту «таким же простим, як запуск контейнера». Сервіс побудовано на механізмі виведення Docker Desktop, який доступний через інтерфейс програмування додатків OpenAI. За допомогою цього механізму локального виведення розробники можуть тестувати та ітерувати свої моделі в одному місці.

Розробники, які працюють на ноутбуках Mac від Apple, зможуть скористатися прискоренням GPU, використовуючи вбудований графічний процесор на своєму комп’ютері. Компанія пояснює, що це виконання на базі хосту допомагає обійти обмеження продуктивності, пов’язані з запуском моделей всередині контейнерів або віртуальних машин, що означає швидше виведення, плавніше тестування та кращі цикли зворотного зв’язку.

Щоб полегшити життя розробникам локальних моделей штучного інтелекту, Docker співпрацює з такими компаніями, як Google, Qualcomm, HuggingFace, Spring, VMware і Dagger. Це надає користувачам доступ до цілої екосистеми інструментів і сервісів штучного інтелекту при роботі з Docker Model Runner. Тож розробники зможуть використовувати для локальної розробки великі мовні моделі, фреймворки ШІ та інструменти розробки, з якими вони вже знайомі.

 

Останні статті

Архівувати дані все складніше: HDD подорожчали, сайти блокують пошукових ботів

Організації, які займаються архівуванням інтернет-даних, опинилися під подвійним тиском: ціни на накопичувачі злетіли через попит…

08.05.2026

З відеокартою Nvidia RTX 5090 можна зламати 60% паролів менш ніж за годину

60% паролів, захищених алгоритмом MD5, можна зламати менш ніж за годину за допомогою однієї відеокарти…

08.05.2026

OpenAI додає Codex у Chrome: тепер це однозначно головний конкурент Claude Code

Компанія OpenAI офіційно випустила розширення Codex для браузера Google Chrome, що стало важливим кроком у…

08.05.2026

КНУ імені Шевченка зняв заборону на Telegram: що змусило ректора змінити рішення

Київський національний університет імені Тараса Шевченка розблокував Telegram у своїй внутрішній мережі. Ректор підписав відповідний…

08.05.2026

Хто в Україні вміє впроваджувати CRM: з’явився перший незалежний рейтинг інтеграторів

Кожна п'ята українська компанія, яка використовує CRM, досі робить це за допомогою російського софту. А…

08.05.2026

40% розробників C++ використовують штучний інтелект, але довіра до нього залишається низькою — опитування

Щорічне опитування Standard C++ Foundation зафіксувало стрімке зростання використання штучного інтелекту серед C++-розробників — однак…

08.05.2026