Рубріки: Новини

OpenAI запідозрили у маніпуляціях з тестами LLM-моделі o3

Дмитро Сімагін

Результати незалежних тестів поставили під сумнів твердження OpenAI про те, що її нова велика мовна модель o3 здатна впоратися з більш ніж 25% складних математичних завдань FrontierMath, тоді як інші моделі справлялися лише з 2% завдань із цього набору. Розбіжності між результатами внутрішніх та незалежних тестів ставлять питання про якість тестування нейромереж у OpenAI, пише TechCrunch.

На момент анонсу моделі o3 у грудні 2024 року представник OpenAI спеціально звернув увагу на результати алгоритму при вирішенні завдань FrontierMath. Однак виявилось, що o3 не так добре справляється з математичними задачами. Це може вказувати на те, що OpenAI або завищила результати тестування, або в них задіяли іншу версію o3, яка більш здатна до вирішення математичних завдань.

Дослідники з Epoch AI, які стоять за FrontierMath, опублікували результати незалежних тестів загальнодоступної версії LLM-моделі o3. Виявилося, що алгоритм зумів впоратися лише з 10% завдань, що значно нижче за заявлені OpenAI 25%. 

Розбіжність у результатах тестування не означає, що OpenAI спеціально завищила показники своєї моделі. Нижня межа результатів тестування OpenAI практично збігається з результатами Epoch AI. У Epoch AI також відзначили, що модель, що ними тестується, швидше за все, відрізняється від тієї, що тестувалася OpenAI. 

«Різниця між нашими результатами та результатами OpenAI може бути пов’язана з тим, що OpenAI оцінює результати за допомогою більш потужної внутрішньої версії, використовуючи більше часу для обчислень, або тому, що ці результати були отримані на іншому наборі завдань FrontierMath (180 завдань у frontiermath-2024-11-26 проти 29 frontiermath-2025-02-28)», — повідомили в Epoch AI.

Співробітниця OpenAI Венда Чжоу розповіла, що публічна версія o3 «більш оптимізована для реальних випадків використання» та підвищення швидкості обробки запитів порівняно з версією o3, яку компанія тестувала у грудні. За її словами, це є причиною того, що результати тестування в бенчмарках можуть відрізнятися від того, що демонстрували в OpenAI.

Останні статті

Міноборони розширило функціонал мобільного додатку Резерв+

Міністерство оборони України розширило можливість сплати штрафів через мобільний додаток Резерв+. Тепер у ньому можна…

05.09.2025

Побутова техніка Tesla: армовані метали, передові полімери та доступна ціна. Що представлено в лінійках

Втома від техніки, яка швидко зношується, змушує українців переглядати підхід до покупок. Відтепер на перше…

05.09.2025

Код, згенерований інструментами ШІ, створює вдесятеро більше проблем безпеки

Спеціалісти компанії Apiiro, які проаналізували код з десятків тисяч репозиторіїв, виявили, що розробники за допомогою…

05.09.2025

Державна платформа Brave1 оголошує гранти до 100 млн грн для ШІ-розробників

Маркетплейс Brave1 — онлайн-платформа, що об'єднує українських військових та розробників — запускає грантовий конкурс з…

05.09.2025

У Києві пройде перший хакатон з вайб-кодингу: як взяти участь

4-5 жовтня в Києві на Подолі пройде захід Vibecoding Hackathon. Протягом двох днів розробники, користувачі…

05.09.2025

OpenAI запустить платформу для IT-найму та програму сертифікації навичок

OpenAI готується запустити платформу для найму, яка конкуруватиме з LinkedIn. Майбутній сервіс під назвою OpenAI…

05.09.2025