Рубріки: Новини

Платформу вайб-кодингу VibeSDK від CloudFlare перевели в open source

Дмитро Сімагін

Компанія CloudFlare відкрила вихідний код VibeSDK — платформи для вайб-кодингу, яку тепер можна розгорнути одним кліком у мережі Cloudflare або на GitHub Repo Fork. Про це повідомляє блог CloudFlare.

VibeSDK можна використовувати для генерації коду, безпечного виконання, попереднього перегляду в реальному часі та розгортання. Після розгортання платформи користувачі можуть зробити запит природною мовою, що вони хочуть створити, після чого агент штучного інтелекту створить та розгорне додаток.

Використовуючи VibeSDK, можна налаштувати поведінку ШІ, керувати згенерованими шаблонами коду, інтегрувати власні бібліотеки компонентів і зберігати всі дані клієнтів у власній інфраструктурі. Платформа ідеально підходить для стартапів, які бажають увійти в сферу розробки ШІ, або для вже існуючих компаній, які хочуть додати можливості штучного інтелекту до своїх інструментів розробки.

Репозиторій VibeSDK включає фронтенд React+Vite, бекенд Workers з Durable Objects для координації агентів, D1 (SQLite) через Drizzle, R2 для зберігання шаблонів, KV для сеансів та процес «Розгортання в Cloudflare». Він інтегрує пісочниці/контейнери Cloudflare для ізольованих збірок і попередніх версій, а також використовує Workers for Platforms для публікації кожного згенерованого додатка як ізольованого Worker з власною URL-адресою.

Як працює VibeSDK:

  • Користувач описує програму; агент генерує файли та записує їх у окремо взяту «пісочницю» для кожного користувача.
  • Пісочниця встановлює залежності та запускає сервер розробки; SDK надає публічну URL-адресу попереднього перегляду.
  • Логи/помилки передаються назад агенту для ітеративних виправлень.
  • Пісочниця розгортання запускає wrangler deploy для публікації програми в просторі імен відправлення Workers-for-Platforms, надаючи кожній програмі власний ізольований від клієнта Worker.

За замовчуванням VibeSDK використовує сімейство Google Gemini 2.5 для планування, генерації коду та налагодження, але всі виклики LLM проходять через Cloudflare AI Gateway. Це забезпечує єдину маршрутизацію між провайдерами (OpenAI/Anthropic/Google), кешування відповідей для поширених запитів, спостереження за токенами/затримками для кожного провайдера та відстеження витрат. 

Останні статті

США скасовують принцип лотереї при видачі робочих віз H-1B: як це вплине на IT-фахівців

Міністерство внутрішньої безпеки США оголосило про скасування лотерейної системи при видачі іноземним працівникам робочих віз…

24.12.2025

В Україні офіційно затвердили День програміста: коли відзначати нове свято

Кабінет міністрів України погодив Указ президента Володимира Зеленського про появу нового професійного свята — Дня…

24.12.2025

Китай звинуватили в крадіжці у Samsung технології 10-нм DRAM

П'ять осіб, включно з колишніми керівниками та співробітниками Samsung Electronics, були заарештовані в Сеулі за…

24.12.2025

У Києві відбувся форум ветеранських IT-стартапів SKELAR Veteran Venture Program. Фіналісти отримали $44 000

21 грудня 2025 року у Києві відбувся SKELAR Veteran Venture Forum. Після повного циклу акселерації…

24.12.2025

Претендувати на віддалену роботу тепер можуть лише найбільш кваліфіковані співробітники

Сандер ван'т Норденде, генеральний директор компанії Randstad, яка щотижня працевлаштовує близько півмільйона працівників, заявив, що…

24.12.2025

Україна піднялась на 14 позицій у світовому рейтингу розвитку штучного інтелекту

Україна увійшла в Топ-40 світового рейтингу держав за рівнем розвитку штучного інтелекту. Аналітичний центр Oxford…

24.12.2025