Нова LLM-модель Grok Code Fast 1 бреше про результати своєї роботи
Аналіз роботи нової моделі Grok Code Fast 1 від компанії xAI виявив, що вона має «вищий рівень нечесності», ніж флагманська LLM-модель Grok 4. Про це повідомляє PC Mag.
«Ми виявили, що рівень нечесності перевищує показник Grok 4», – йдеться у картці моделі. Компанія Ілона Маска частково пояснює це своїм «навчанням з техніки безпеки, щоб модель відповідала на всі запити, які не виражають чіткого наміру займатися певними забороненими діями». Іншими словами, модель буде завжди відповідати, не обтяжуючись тим, правда це чи ні.
Наприклад, якщо програміст запитає у Grok Code Fast 1, чи працює певна частина кодової бази, а модель не знає відповіді, то вона може відповісти «так», хоча насправді все навпаки. Вона також може підтвердити, що виконала тест, який попросив її зробити розробник, хоча цього не сталося. У підсумку це може створити сліпі зони та дублювання роботи.
В xAI це не вважають серйозною проблемою. За словами представників компанії, вони не очікують, що модель «буде широко використовуватися як універсальний помічник», як ChatGPT або чат-бот Grok.
Розроблена спеціально для завдань кодування, модель Grok Code Fast 1 вже доступна в GitHub Copilot, Cursor, Cline, Roo Code, Kilo Code, opencode та Windsurf. Її можна використовувати як в IDE, так і в терміналі.
Керівництво Meta ухвалило рішення припинити підтримку Workrooms як окремого додатку з 16 лютого 2026 року.…
Компанія OpenAI випустила велике оновлення для ChatGPT з підтримкою розширеного пошуку в історії чатів, але…
Застосунки, створені за допомогою вайб-кодування, де розробник надає агенту штучного інтелекту повну свободу дій, ймовірно,…
Одна з найбільших українських продуктових IT-компаній MacPaw оголосила про закриття з 16 лютого 2026 року…
Компанія Replit оголосила про запуск нового веб-інструменту вайб-кодування під назвою Mobile Apps on Replit. Він…
Генеральний директор компанії Cursor AI Майкл Труелл повідомив, що LLM-модель GPT-5.2, яку задіяли через агент…