Рубріки: Новини

Microsoft відкриває код мовної моделі Phi-4

Дмитро Сімагін

Компанія Microsoft відкрила вихідний код Phi-4, невеликої мовної моделі, яка може генерувати текст і розв’язувати математичні задачі. Раніше Phi-4 була доступна лише через сервіс Microsoft Azure Foundry, але тепер цю модель можна завантажити на Hugging Face, популярному веб-сайті для розміщення проектів ШІ з відкритим кодом, пише Silicon Angle.

Phi-4 — це четверта ітерація серії невеликих мовних моделей, яку Microsoft представила в 2023 році. Вона має 14 мільярдів параметрів та навчена протягом 21 дня на кластері з 1920 графічних процесорів H100 від Nvidia.

Модель базується на галузевому стандарті архітектури Transformer, яка є основою більшості великих мовних моделей. Коли вони отримують підказку користувача, моделі Transformer розбивають введені дані на окремі слова та визначають значення кожного слова, аналізуючи навколишній текст. Крім того, вони віддають пріоритет частинам навколишнього тексту, які вважаються найбільш релевантними.

Phi-4 реалізує так званий варіант архітектури Transformer лише для декодера. Стандартна модель Transformer аналізує текст перед і після слова, щоб визначити його значення. Моделі лише з декодером зосереджуються виключно на тексті, який передує слову, що зменшує обсяг даних, які їм потрібно обробити, і, таким чином, знижує витрати на логічні висновки. 

У Майкрософт уточнили, що якість виведення Phi-4 покращена за допомогою двох методів оптимізації після навчання. Ці методи відомі як пряма оптимізація переваг і контрольована точна настройка. Обидва передбачають забезпечення мовної моделі прикладами, які пояснюють, як вона має генерувати швидкі відповіді.

Під час внутрішньої оцінки Microsoft порівняла Phi-4 із Llama 3.3 70B, моделлю з відкритим кодом від Meta, яка має в п’ять разів більшу кількість параметрів. Виявилось, що Phi-4 забезпечує кращу продуктивність у популярних тестах GPQA та MATH, які містять наукові запитання та математичні завдання. 

У лютому минулого року компанія Google теж представила серію невеликих мовних моделей під назвою Gemma. Алгоритми серії мають від 2 до 27 мільярдів параметрів. Нещодавно Meta випустила дві моделі Llama 3.2 із менш ніж п’ятьма мільярдами параметрів.

Останні статті

Anthropic звинувачує китайські компанії в масовій крадіжці можливостей Claude

Компанія Anthropic звинуватила трьох провідних китайських розробників штучного інтелекту — DeepSeek, Moonshot та MiniMax. Їм…

24.02.2026

21-річний хакер викрав 127 млн грн у компаній батька голови Львівської ОВА: відразу купив собі Cadillac та BMW

Управління Нацполіції у Львівській області заочно повідомило підозру громадянину Денису Ніколаєву в причетності до крадіжки…

24.02.2026

Claude Code навчили оновлювати застарілі мови програмування: акції IBM обвалились на 13%

IT-гігант IBM став новою «жертвою» штучного інтелекту: компанія опинилась в епіцентрі ринкової паніки після новини…

24.02.2026

Помилка в інструменті кодування Amazon Kiro призвела до 13-годинного збою в роботі AWS

Одна з найбільших у світі хмарних платформ Amazon Web Services (AWS) двічі була виведена з…

23.02.2026

«Стягнення майна через Дію»: Мінцифри цифровізує виконання судових рішень

У мобільному застосунку «Дія» почали бета-тестування послуги отримання виконавчих документів. Це дозволить громадянам спростити етапи…

23.02.2026

Google без попередження блокує користувачів, які підключають Gemini до OpenClaw

Google без попередження заблокувала акаунти передплатників найдорожчого тарифу AI Ultra, які підключали Gemini до популярного…

23.02.2026