Рубріки: Новини

Підступна залежність: розробники Samsung злили ChatGPT конфіденційний код

Ігор Шелудченко

Розробники програмного забезпечення Samsung злили конфіденційний код компанії чат-боту зі штучним інтелектом ChatGPT.

Про це розповів PCMAG.

ChatGPT-залежність

Кілька співробітників корейського напівпровідникового бізнесу Samsung вирішили використати ChatGPT для удосконалення свого коду.

Один співробітник скопіював вихідний код з бази даних напівпровідників у чат-бот і попросив ChatGPT знайти помилки.

Інший співробітник зробив те саме для іншого коду, попросивши «оптимізувати код» у ChatGPT.

Після того, як третій співробітник попросив модель штучного інтелекту зробити нотатки, керівництво Samsung вирішило втрутитися.

Корпоративні обмеження

Цікаво, що всього за три тижні до цього Samsung скасувала заборону на використання ChatGPT співробітниками. Але встановила обмеження на використання, яке еквівалентно кілобайту інформації.

Але після цих інцидентів компанія розглядає можливість відновлення заборони, а також застосування дисциплінарних стягнень для співробітників.

«Якщо подібний випадок станеться навіть після вжиття екстрених заходів захисту інформації, доступ до ChatGPT може бути заблокований у мережі компанії», — йдеться у внутрішній записці.

В компанії стверджують, що після того, як контент порапляє в ChatGPT, він стає загальнодоступним.

Посібник користувача OpenAI застерігає користувачів від такої поведінки.

«Ми не можемо видалити певні підказки з вашої історії. Будь ласка, не діліться конфіденційною інформацією у своїх розмовах», — йдеться в ньому.

У посібнику сказано, що система використовує всі надіслані їй дані для власного навчання.

Використання ChatGPT для пошуку та виправлення помилкового коду стало поширеним у розробці програмного забезпечення. Якщо користувачі ставлять питання про кодування, ШІ намагається знайти рішення та надає фрагмент коду в декілька кліків.

Знань програмування ChatGPT навіть може бути достатньо, щоб замінити в IT-компанії інженерів початкового рівня.

Також повідомляється, що Samsung розглядає можливість створення власного ШІ, щоб запобігти таким випадкам у майбутньому.

Microsoft Bing і Google Bard також можуть виявляти помилки в рядках коду, тому заборона ChatGPT не є надійним рішенням.

Нагадаємо, раніше Highload писав про те, що 23-річний хлопець заробив близько $35 000 за 3 місяці, навчаючи новачків ChatGPT.

Читайте також:

Компанії використовують ChatGPT в 66% випадків для написання коду — опитування

ChatGPT і новий ШІ можуть залишити індійських айтівців без роботи — JPMorgan

ChatGPT влаштувався на роботу програмістом Google з зарплатнею $15 тис.

Останні статті

TikTok відмовляється від наскрізного шифрування — як це вплине на вашу приватність і безпеку

TikTok офіційно роз'яснив позицію щодо модерації приватних повідомлень. Компанія заявила, що не буде використовувати наскрізне…

05.03.2026

Sony відмовляється від релізів ігор PlayStation на ПК

Компанія Sony Interactive Entertainment прийняла стратегічне рішення про перегляд свого підходу до портування ексклюзивів, віддаючи…

04.03.2026

Microsoft хоче стягувати щомісячну плату за використання агентів в офісних програмах

Серед топ-менеджерів великих компаній активно ширяться чутки про те, що Microsoft готує до запуску новий,…

04.03.2026

Google додає в Android «фішки» Apple: тепер можна ділитися своїм місцезнаходженням в повідомленнях

Компанія Google зробила великий крок назустріч естетиці та функціональності екосистеми Apple, анонсувавши масштабне оновлення Android.…

04.03.2026

Anthropic запускає голосовий режим для Claude Code

Компанія Anthropic оголосила про поступове розгортання оновлення для Claude Code — інтерфейсу командного рядка (CLI)…

04.03.2026

Google попереджає про експлойт Coruna: полює на українських користувачів iPhone

Експерти з безпеки Google виявили складний і небезпечний набір експлойтів для зламу пристроїв на базі…

04.03.2026