Рубріки: Новини

Підступна залежність: розробники Samsung злили ChatGPT конфіденційний код

Ігор Шелудченко

Розробники програмного забезпечення Samsung злили конфіденційний код компанії чат-боту зі штучним інтелектом ChatGPT.

Про це розповів PCMAG.

ChatGPT-залежність

Кілька співробітників корейського напівпровідникового бізнесу Samsung вирішили використати ChatGPT для удосконалення свого коду.

Один співробітник скопіював вихідний код з бази даних напівпровідників у чат-бот і попросив ChatGPT знайти помилки.

Інший співробітник зробив те саме для іншого коду, попросивши «оптимізувати код» у ChatGPT.

Після того, як третій співробітник попросив модель штучного інтелекту зробити нотатки, керівництво Samsung вирішило втрутитися.

Корпоративні обмеження

Цікаво, що всього за три тижні до цього Samsung скасувала заборону на використання ChatGPT співробітниками. Але встановила обмеження на використання, яке еквівалентно кілобайту інформації.

Але після цих інцидентів компанія розглядає можливість відновлення заборони, а також застосування дисциплінарних стягнень для співробітників.

«Якщо подібний випадок станеться навіть після вжиття екстрених заходів захисту інформації, доступ до ChatGPT може бути заблокований у мережі компанії», — йдеться у внутрішній записці.

В компанії стверджують, що після того, як контент порапляє в ChatGPT, він стає загальнодоступним.

Посібник користувача OpenAI застерігає користувачів від такої поведінки.

«Ми не можемо видалити певні підказки з вашої історії. Будь ласка, не діліться конфіденційною інформацією у своїх розмовах», — йдеться в ньому.

У посібнику сказано, що система використовує всі надіслані їй дані для власного навчання.

Використання ChatGPT для пошуку та виправлення помилкового коду стало поширеним у розробці програмного забезпечення. Якщо користувачі ставлять питання про кодування, ШІ намагається знайти рішення та надає фрагмент коду в декілька кліків.

Знань програмування ChatGPT навіть може бути достатньо, щоб замінити в IT-компанії інженерів початкового рівня.

Також повідомляється, що Samsung розглядає можливість створення власного ШІ, щоб запобігти таким випадкам у майбутньому.

Microsoft Bing і Google Bard також можуть виявляти помилки в рядках коду, тому заборона ChatGPT не є надійним рішенням.

Нагадаємо, раніше Highload писав про те, що 23-річний хлопець заробив близько $35 000 за 3 місяці, навчаючи новачків ChatGPT.

Читайте також:

Компанії використовують ChatGPT в 66% випадків для написання коду — опитування

ChatGPT і новий ШІ можуть залишити індійських айтівців без роботи — JPMorgan

ChatGPT влаштувався на роботу програмістом Google з зарплатнею $15 тис.

Останні статті

Amazon дозволить стартапам безкоштовно користуватись інструментом кодування Kiro Pro+. Але не всім

Компанія Amazon оголосила про безкоштовну роздачу річних платних ліцензій на користування інструментом кодування Kiro Pro+,…

04.12.2025

OpenAI навчила ChatGPT визнавати власні помилки

Компанія OpenAI представила експериментальну систему «визнання», яка вчить LLM-моделі чесно повідомляти про власні помилки та…

04.12.2025

Google запускає Workspace Studio — платформу, де можна створювати агентів для автоматизації роботи

Google оголосила про запуск Workspace Studio — нової платформи, яка дозволяє створювати агентів штучного інтелекту…

04.12.2025

В Anthropic проаналізували роботу своїх програмістів, щоб дізнатись, які переваги дає штучний інтелект

В Anthropic провели внутрішнє опитування 132 програмістів та дослідників, 53 поглиблених інтерв'ю та проаналізували використання…

04.12.2025

AWS випустила три нові інструменти для покращення кодування на базі штучного інтелекту

На щорічній конференції Re:Invent, яка проходить цими днями в Лас-Вегасі, керівник AWS Метт Гарман оголосив…

04.12.2025

OpenAI готує реліз нової моделі Garlic, яка спеціалізується на кодуванні

Компанія OpenAI працює над новою LLM-моделлю Garlic («Часник»), яка спеціалізується на програмуванні та логічних завданнях.…

03.12.2025