Нова LLM-модель Grok Code Fast 1 бреше про результати своєї роботи
Аналіз роботи нової моделі Grok Code Fast 1 від компанії xAI виявив, що вона має «вищий рівень нечесності», ніж флагманська LLM-модель Grok 4. Про це повідомляє PC Mag.
«Ми виявили, що рівень нечесності перевищує показник Grok 4», – йдеться у картці моделі. Компанія Ілона Маска частково пояснює це своїм «навчанням з техніки безпеки, щоб модель відповідала на всі запити, які не виражають чіткого наміру займатися певними забороненими діями». Іншими словами, модель буде завжди відповідати, не обтяжуючись тим, правда це чи ні.
Наприклад, якщо програміст запитає у Grok Code Fast 1, чи працює певна частина кодової бази, а модель не знає відповіді, то вона може відповісти «так», хоча насправді все навпаки. Вона також може підтвердити, що виконала тест, який попросив її зробити розробник, хоча цього не сталося. У підсумку це може створити сліпі зони та дублювання роботи.
В xAI це не вважають серйозною проблемою. За словами представників компанії, вони не очікують, що модель «буде широко використовуватися як універсальний помічник», як ChatGPT або чат-бот Grok.
Розроблена спеціально для завдань кодування, модель Grok Code Fast 1 вже доступна в GitHub Copilot, Cursor, Cline, Roo Code, Kilo Code, opencode та Windsurf. Її можна використовувати як в IDE, так і в терміналі.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: