Нова LLM-модель Grok Code Fast 1 бреше про результати своєї роботи
Аналіз роботи нової моделі Grok Code Fast 1 від компанії xAI виявив, що вона має «вищий рівень нечесності», ніж флагманська LLM-модель Grok 4. Про це повідомляє PC Mag.
«Ми виявили, що рівень нечесності перевищує показник Grok 4», – йдеться у картці моделі. Компанія Ілона Маска частково пояснює це своїм «навчанням з техніки безпеки, щоб модель відповідала на всі запити, які не виражають чіткого наміру займатися певними забороненими діями». Іншими словами, модель буде завжди відповідати, не обтяжуючись тим, правда це чи ні.
Наприклад, якщо програміст запитає у Grok Code Fast 1, чи працює певна частина кодової бази, а модель не знає відповіді, то вона може відповісти «так», хоча насправді все навпаки. Вона також може підтвердити, що виконала тест, який попросив її зробити розробник, хоча цього не сталося. У підсумку це може створити сліпі зони та дублювання роботи.
В xAI це не вважають серйозною проблемою. За словами представників компанії, вони не очікують, що модель «буде широко використовуватися як універсальний помічник», як ChatGPT або чат-бот Grok.
Розроблена спеціально для завдань кодування, модель Grok Code Fast 1 вже доступна в GitHub Copilot, Cursor, Cline, Roo Code, Kilo Code, opencode та Windsurf. Її можна використовувати як в IDE, так і в терміналі.
Компанія OpenAI представила масштабне оновлення свого десктопного застосунку Codex. Воно перетворює інструмент з простого помічника…
Модель штучного інтелекту Claude Opus 4.6 від компанії Anthropic продемонструвала здатність створювати функціональні експлойти для…
Ринок навчання штучного інтелекту виходить на новий рівень: тепер «паливом» для нейромереж стають не лише…
Молода польська розробниця Каміла Шевчик змогла розв'язати технічну проблему в інтерфейсі Linux, яка залишалася непоміченою…
Компанія Google випустила четверту та фінальну бету Android 17, яка стала важливою віхою на шляху…
Компанія Anthropic офіційно представила свою найпотужнішу на сьогодні LLM-модель — Claude Opus 4.7, яка стала…