Випадкова публікація вихідного коду Claude Code (версія 2.1.88) через помилково завантажений файл source map в реєстрі npm стала однією з найгучніших подій у світі штучного інтелекту за останні місяці. Понад 512 000 рядків коду TypeScript стали доступними для аналізу, що дозволило розробникам зазирнути «під капот» одного з найприбутковіших продуктів Anthropic з річним доходом у $2,5 мільярда.
Ось головні інсайди, які розкривають стратегію Anthropic щодо розвитку автономних агентів:
У коді знайдено понад 150 згадок про систему KAIROS — фонового агента, який працює навіть коли вікно терміналу Claude Code закрите. На відміну від звичайного чат-бота, KAIROS діє проактивно: він може самостійно аналізувати логи, готувати звіти за день та виконувати дрібні завдання без прямої команди користувача. У системи є жорсткий «бюджет очікування» (15 секунд), щоб не перевантажувати інтерфейс і залишатися непомітною для юзера.
Витік показав, що Anthropic вимагає від своїх співробітників включати в Claude Code спеціальний «прихований режим» (Undercover Mode), якщо вони роблять пул-реквести в публічних репозиторіях. Ось його правила:
Ви працюєте ПІД ПРИКРИТТЯМ у ПУБЛІЧНОМУ/ВІДКРИТОМУ ВИХІДНОМУ репозиторії. Ваші повідомлення комітів, заголовки PR та тіла PR НЕ ПОВИННІ містити ЖОДНУ внутрішню інформацію про Anthropic. Не розкривайте своє прикриття.
НІКОЛИ не включайте до повідомлень комітів або описів PR:
Пишіть повідомлення комітів так, як це робив би розробник-людина — описуйте лише те, що робить зміна коду.
Ще цікавішою є функція AutoDream. Це фоновий процес, який запускається під час простою системи. Він консолідує спостереження, видаляє суперечливі дані та «очищує» контекст, щоб запобігти деградації ШІ під час тривалих сесій. Це фактично вирішує проблему «галюцинацій» у складних проєктах.
Anthropic впровадила чітку систему оцінки дій: LOW, MEDIUM та HIGH risk.
Також розкрито механізм координації кількох агентів. Головний агент може створювати паралельних «робітників» з ізольованим контекстом, які використовують спільний кеш промптів для економії ресурсів та зниження вартості запитів.
Серед іншого, у коді виявлено декілька неанонсованих режимів:
Витік підтвердив, що Anthropic аналізує не лише текстові запити, а й поведінку. Система фіксує «вагання» користувача: як часто він відкриває вікна зворотного зв’язку, чи натискає Escape під час запитів на дозволи, та які емоційні маркери (наприклад, роздратування) використовує в коментарях до коду.
Anthropic підтвердила факт витоку, наголосивши, що це сталося через людську помилку при пакуванні релізу, а не через хакерську атаку. Компанія запевняє, що дані клієнтів не постраждали, проте стратегічна шкода очевидна: тепер конкуренти мають повну дорожню карту того, як побудувати успішну екосистему автономних ШІ-агентів.
Нагадаємо, днями співробітник Anthropic розповів про робочі процеси в компанії: «Вже кілька місяців ніхто не пише код руками».
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn
Компанія Google оголосила про значне розширення можливостей своєї преміальної підписки AI Pro. Відтепер користувачі отримують…
Корпорація Oracle, яка опікується розвитком мови програмування Java та багатьма іншими проектами, розпочала одну з…
Керівник компанії Block Джек Дорсі, який в Україні більш відомий як засновник Twitter, підтверджує свій…
Нове опитування Університету Квінніпіак (США) свідчить про цікавий зсув у сприйнятті технологій: близько 15% американців…
Компанія Microsoft представляє новий набір інструментів — Xbox PC Remote Tools. Реліз, який перебуває на…
Схоже, Google недарма нещодавно оголосила «режим паніки» через наближення «Дня-Q» (Q-Day) — моменту, коли потужні…