Третина згенерованого коду потрапляє в продакшн без перевірки — звіт Cloudsmith
Штучний інтелект генерує понад половину коду в деяких компаніях, але значна його частина потрапляє в продакшн практично без перевірки. Це стверджується в дослідженні Cloudsmith 2025 Artifact Management Report.
Лише 67% опитаних розробників перевіряють код, згенерований штучним інтелектом, перед кожним розгортанням, залишаючи значні частини виробничого коду потенційно неперевіреними.
41% респондентів визначили генерацію коду як найбільш ризикований аспект впливу ШІ, проте практика перевірки та довіри залишається непослідовною:
У минулорічному звіті GitHub, що охоплював США, Бразилію, Німеччину та Індію, стверджувалось, що «понад 97% респондентів повідомили про використання інструментів кодування на основі штучного інтелекту на роботі в певний момент». Частка тих, хто повідомляє про «принаймні певну підтримку компанії» щодо застосування інструментів генерації коду, коливається від 88% у США до 59% у Німеччині.
Далі Cloudsmith попереджує: «Хоча LLM підвищують продуктивність, швидко генеруючи код, вони можуть ненавмисно створювати ризики, рекомендуючи неіснуючі або шкідливі пакети».
Розробники це теж чітко усвідомлюють. На запитання, чи посилить штучний інтелект загрози шкідливого програмного забезпечення з відкритим кодом (наприклад, тайпсквоттінг, плутанина з залежностями), 79,2% відповіли, що ШІ збільшить кількість шкідливого програмного забезпечення в репозиторіях. Причому 30% сказали про значний вплив шкідливого ПЗ. Лише 13% вважають, що штучний інтелект «запобігне або зменшить загрози».
Компанія Google оголосила про запуск Agent Development Kit (ADK), спеціально розробленого для мови програмування Java.…
Керівництво Європейського Союзу офіційно заявило про необхідність негайного зниження попиту на пальне. Для цього треба…
Компанія Google офіційно оголосила про впровадження обов’язкової підтримки 64-бітних архітектур для всіх застосунків платформи Wear…
Сьогодні більшість нових систем створюються з використанням контейнерів та хмарної інфраструктури. Але в реальному корпоративному…
Дослідники компанії Meta розробили новий підхід до використання великих мовних моделей (LLM) для аналізу програмного…
Нове дослідження від Google DeepMind попереджає: поки ми навчаємось працювати з автономними ШІ-агентами, які здатні…