Рубріки: Новини

Підступна залежність: розробники Samsung злили ChatGPT конфіденційний код

Ігор Шелудченко

Розробники програмного забезпечення Samsung злили конфіденційний код компанії чат-боту зі штучним інтелектом ChatGPT.

Про це розповів PCMAG.

ChatGPT-залежність

Кілька співробітників корейського напівпровідникового бізнесу Samsung вирішили використати ChatGPT для удосконалення свого коду.

Один співробітник скопіював вихідний код з бази даних напівпровідників у чат-бот і попросив ChatGPT знайти помилки.

Інший співробітник зробив те саме для іншого коду, попросивши «оптимізувати код» у ChatGPT.

Після того, як третій співробітник попросив модель штучного інтелекту зробити нотатки, керівництво Samsung вирішило втрутитися.

Корпоративні обмеження

Цікаво, що всього за три тижні до цього Samsung скасувала заборону на використання ChatGPT співробітниками. Але встановила обмеження на використання, яке еквівалентно кілобайту інформації.

Але після цих інцидентів компанія розглядає можливість відновлення заборони, а також застосування дисциплінарних стягнень для співробітників.

«Якщо подібний випадок станеться навіть після вжиття екстрених заходів захисту інформації, доступ до ChatGPT може бути заблокований у мережі компанії», — йдеться у внутрішній записці.

В компанії стверджують, що після того, як контент порапляє в ChatGPT, він стає загальнодоступним.

Посібник користувача OpenAI застерігає користувачів від такої поведінки.

«Ми не можемо видалити певні підказки з вашої історії. Будь ласка, не діліться конфіденційною інформацією у своїх розмовах», — йдеться в ньому.

У посібнику сказано, що система використовує всі надіслані їй дані для власного навчання.

Використання ChatGPT для пошуку та виправлення помилкового коду стало поширеним у розробці програмного забезпечення. Якщо користувачі ставлять питання про кодування, ШІ намагається знайти рішення та надає фрагмент коду в декілька кліків.

Знань програмування ChatGPT навіть може бути достатньо, щоб замінити в IT-компанії інженерів початкового рівня.

Також повідомляється, що Samsung розглядає можливість створення власного ШІ, щоб запобігти таким випадкам у майбутньому.

Microsoft Bing і Google Bard також можуть виявляти помилки в рядках коду, тому заборона ChatGPT не є надійним рішенням.

Нагадаємо, раніше Highload писав про те, що 23-річний хлопець заробив близько $35 000 за 3 місяці, навчаючи новачків ChatGPT.

Читайте також:

Компанії використовують ChatGPT в 66% випадків для написання коду — опитування

ChatGPT і новий ШІ можуть залишити індійських айтівців без роботи — JPMorgan

ChatGPT влаштувався на роботу програмістом Google з зарплатнею $15 тис.

Останні статті

Meta закриває проект Workrooms — віртуальні простори для віддаленої роботи

Керівництво Meta ухвалило рішення припинити підтримку Workrooms як окремого додатку з 16 лютого 2026 року.…

16.01.2026

У ChatGPT з’явився розширений пошук в історії діалогів. Тільки для платних користувачів

Компанія OpenAI випустила велике оновлення для ChatGPT з підтримкою розширеного пошуку в історії чатів, але…

16.01.2026

У програмах, згенерованих штучним інтелектом, багато помилок безпеки — дослідження

Застосунки, створені за допомогою вайб-кодування, де розробник надає агенту штучного інтелекту повну свободу дій, ймовірно,…

16.01.2026

Українська компанія MacPaw закриває свій маркетплейс Setapp Mobile

Одна з найбільших українських продуктових IT-компаній MacPaw оголосила про закриття з 16 лютого 2026 року…

16.01.2026

Replit запускає інструмент вайб-кодингу iOS-додатків

Компанія Replit оголосила про запуск нового веб-інструменту вайб-кодування під назвою Mobile Apps on Replit. Він…

16.01.2026

GPT-5.2 написала веб-браузер з нуля. Модель створила три мільйони рядків коду і працювала безперервно цілий тиждень

Генеральний директор компанії Cursor AI Майкл Труелл повідомив, що LLM-модель GPT-5.2, яку задіяли через агент…

15.01.2026