Anthropic буде навчати свої моделі на ваших чатах з Claude
Компанія Anthropic оголосила про зміни в політиці обробки даних: до 28 вересня всі користувачі інструмента кодування Claude повинні вибрати — погодитися на використання своїх чатів і кодових сесій для навчання моделей Anthropic або відмовитися від цього. Про це повідомляє The Verge.
Раніше компанія не застосовувала діалоги з Claude для тренування нових LLM-моделей. Тепер дані будуть зберігатися до п’яти років і використовуватися для поліпшення систем. До останніх змін діалоги з Claude видалялися протягом 30 днів (або максимум двох років у разі порушення правил).
Навчання LLM-моделей на чатах користувачів стосується лише нових діалогів. Вже існуючі чати або сеанси кодування, які не були відновлені, використовуватись для тренування не будуть. Але якщо ви продовжите старий чат або сеанс кодування, ці дані будуть використані для навчання.
Нові правила стосуються підписки Claude Free, Pro та Max, включно з Claude Code, але не поширюються на корпоративні продукти: Claude Gov, Claude for Work, Claude for Education та API-доступ.
Нові користувачі повинні вибрати налаштування під час реєстрації. Існуючим користувачам з’явиться спливаюче вікно з кнопкою «Прийняти» і маленьким перемикачем дозволу на навчання — він увімкнений за замовчуванням. Ті, хто натисне «Прийняти», автоматично погоджуються на передачу даних.
Anthropic стверджує, що використання чатів для тренування нових моделей допоможе «підвищити точність виявлення шкідливого контенту» та «поліпшити навички Claude в аналізі, кодингу та міркуваннях».
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: