Рубріки: Новини

Розробник порівняв Claude 4 Opus і Grok 4 на тестах з програмування

Дмитро Сімагін

Автор блогу Forge Code порівняв на практиці дві потужні LLM-моделі: перевірений Claude 4 Opus і новинку Grok 4. Кожній моделі пропонувалось вирішити 15 завдань загальним обсягом приблизно 28 тисяч рядків коду. Задачі стосувались багатофайлового рефакторингу в кодовій базі Rust, виправлень помилок у коді та взаємних блокувань. 

Grok 4 виявився потужним інструментом для виявлення складних, важкодоступних помилок, таких як глухі блокування в асинхронних Rust-проектах. Він значно дешевший за кожне завдання, але іноді може ігнорувати інструкції. Claude 4 Opus, хоча й дорожчий, є більш слухняним та надійним, особливо коли вам потрібно, щоб він дотримувався певних правил.

Grok 4 майже вдвічі швидше відповідає на запит. Якщо Claude 4 Opus вирішує завдання в середньому за 13-24 секунди, то Grok 4 за 9-15 секунд. Це робить ітерації набагато швидшими. Але потім розробник постійно натикався на обмеження швидкості xAI через кожні кілька запитів. Те, що мало бути швидким тестовим сеансом, перетворилось на кошмар із зупинками та очікуванням.

При виявленні багів в коді Claude 4 Opus пропустив помилки race conditions/deadlocks, тоді як Grok 4 знайшов усі.

З іншого боку, Grok проігнорував 2 з 15 інструкцій, а Claude 4 Opus виконав їх точно за правилами.

Grok 4 коштував в середньому $4,50 за завдання, тоді як Opus досяг $13. Але ціна Grok подвоюється після 128 тисяч токенів. Ціна Opus залишається незмінною.

Обидві моделі впорались з викликом інструментів з точністю 99%, майже щоразу вибираючи правильні інструменти з дійсними аргументами. Перехід на налаштування на основі XML знизив цей показник: Opus досяг 83%, Grok 78%. Надійно, але не бездоганно.

У підсумку автор тестів схилився на користь Grok 4. Він кращий для складних завдань виключно через економію коштів та швидкість, а також через його «орлиний погляд на складні помилки». Grok виконав більше завдань з першої спроби та працював дешевше, навіть якщо обмеження швидкості «зводили з розуму». Opus надійний та послідовно дотримується правил, що робить його безпечнішим вибором, коли вам потрібні передбачувані результати та ви не можете дозволити собі сюрпризів.

Останні статті

Anthropic оновлює Claude Code до версії 2.1.0

Компанія Anthropic випустила Claude Code у версії 2.1.0, яка стала помітним оновленням цього популярного інструменту…

09.01.2026

Senior-розробник Microsoft дає поради, як програмісту вижити в епоху штучного інтелекту

Нандіта Гірі, 32-річна програмістка з головного офісу Microsoft у Редмонді поділилась порадами, як розробникам слід…

09.01.2026

EPAM заключає партнерство з Cursor для створення та масштабування команд ШІ-розробників

Одна з найбільших світових аутсорс-компаній EPAM Systems оголосила про стратегічне партнерство з Cursor. Мета співпраці…

09.01.2026

Штучний інтелект у Gmail тепер сам буде вирішувати, які листи вам показувати в першу чергу

Google вносить масштабні зміни в Gmail, інтегруючи в поштовий сервіс можливості штучного інтелекту на базі…

09.01.2026

Ілон Маск анонсував випуск Grok Code — нового інструменту для вайб-кодингу

Ілон Маск анонсував значне оновлення LLM-моделі Grok разом із новими продуктами, в тому числі інструментом…

09.01.2026

CEO Replit: завдяки вайб-кодуванню керівникам більше не потрібно благати програмістів про допомогу

Глава стартапу Replit, який відомий однойменним IDE, Амджад Масад заявив, що інструменти вайб-кодингу змінюють баланс…

08.01.2026