Claude зможе сам завершувати діалог, щоб запобігти шкідливому використанню
Компанія Anthropic додала до Claude нову функцію, яка дозволяє LLM-моделі самій завершувати розмови, якщо є підстави вважати, що вона використовується для шкідливих дій. Про це повідомляє Bleeping Computer.
Нововведення стосується лише Claude Opus 4 та 4.1, двох найпотужніших моделей, доступних через платні тарифи та API. З іншого боку, Claude Sonnet 4, яка є найчастіше використовуваною моделлю компанії, не отримає цієї функції.
Відомо, що Claude не буде припиняти розмову, якщо не зможе обробити запит. Завершення розмови буде крайнім заходом, коли спроби моделі перенаправити користувачів на корисні ресурси зазнають невдачі.
«Сценарії, в яких це відбуватиметься, є крайніми випадками — переважна більшість користувачів не помітять і не зазнають впливу цієї функції під час будь-якого звичайного використання продукту, навіть під час обговорення вкрай суперечливих питань з Claude», — уточнили в компанії.
Користувач також може попросити Claude завершити чат. Чат-бот використовує інструмент end_conversation для завершення діалогу.
Нагадаємо, що днями розробник Метт Візе поділився досвідом, як йому вдалось підлаштувати свій режим сну заради більш продуктивного використання інструменту кодування Claude Code.
У Грузії за запитом поліції Південної Кореї було затримано 29-річного громадянина Литви, якого підозрюють в…
Компанії все частіше відмовляються від оцінки класичних резюме, віддаючи перевагу найму, де кандидата оцінюють, наскільки…
Команда YC.Market оприлюднила аналіз реєстрацій фізичних осіб підприємців (ФОП) за неповний 4 квартал 2025 року.…
Керівник OpenAI Сем Альтман оголосив про пошук нового директора відділу готовності (head of preparedness), який…
Microsoft доповнила функціонал Copilot найпотужнішою на сьогоднішній день LLM-моделлю GPT-5.2 від OpenAI. Вона дозволяє швидше…
Сервіс Google Photos з'явиться на телевізорах вже наступного року, спочатку лише на пристроях Samsung. Перші…