Рубріки: Новини

Meta винайшла спосіб, які зменшити галюцинації штучного інтелекту

Дмитро Сімагін

Дослідники з Meta AI опублікували статтю, в якій пропонують «масштабовані шари пам’яті» для рішення проблеми галюцинацій штучного інтелекту. Під галюцинаціями слід розуміти такі артефакти, як зайві пальці та інші несподівані елементи, що виникають під час генерації візуального контенту.

Масштабовані шари пам’яті додають більше параметрів до великої мовної моделі (LLM), щоб збільшити її здатність до навчання без додаткових обчислювальних ресурсів. 

Традиційні мовні моделі використовують «щільні шари» для кодування величезної кількості інформації в їхніх параметрах. У щільних шарах всі параметри використовують свою повну ємність і активуються одночасно під час виведення. Проблема в тому, що збільшення щільних шарів потребує додаткових обчислювальних та енергетичних ресурсів.

У своїй статті дослідники з Meta пропонують кілька модифікацій, які вирішують цю проблему. По-перше, вони налаштували шари пам’яті для паралелізації, розподіляючи їх по кількох GPU для зберігання мільйонів пар ключ-значення без зміни інших шарів моделі. Вони також реалізували спеціальне ядро ​​CUDA для обробки операцій із високою пропускною здатністю пам’яті. Крім того, дослідники розробили механізм спільного використання параметрів, що підтримує єдиний набір параметрів пам’яті для декількох шарів пам’яті всередині моделі. Це означає, що ключі та значення, які використовуються для пошуку, поділяються між шарами. Ці модифікації дозволяють впроваджувати шари пам’яті LLM без уповільнення моделі.

Для тестування шарів пам’яті вчені модифікували моделі Llama, замінивши один або кілька щільних шарів загальним шаром пам’яті. Результати порівняння з щільними шарами довели, що моделі з пам’яттю значно перевершують щільні базові моделі і конкурують з моделями, які використовують у 2-4 рази більше обчислювальних ресурсів. 

Дослідники також виявили, що переваги моделей із пам’яттю залишаються стабільними зі збільшенням розміру моделі. «Враховуючи ці результати, ми настійно рекомендуємо інтегрувати шари пам’яті у всі архітектури штучного інтелекту наступного покоління», — пишуть вчені в своїй статті.

 

Останні статті

В Китаї планують виробляти скляні оптичні диски місткістю 360 ТБ. Їх розробили в Ухані

До кінця 2025 року у Китаї планують налагодити масове виробництво нової технології зберігання даних –…

25.07.2025

OpenAI запустить GPT-5 вже у серпні

Один з лідерів у галузі штучного інтелекту, компанія OpenAI, планує запустити свою нову мовну модель…

25.07.2025

Google тестує інструмент для вайб-кодингу Opal

Google тестує інструмент для вайб-кодування під назвою Opal. Поки він доступний користувачам лише в США…

25.07.2025

App Store запроваджує додаткові вікові обмеження для програм: 13+, 16+ і 18+

Маркетплейс мобільних застосунків App Store оновив віковий рейтинг для програм. Додано нові рейтингові обмеження та…

25.07.2025

Американку посадили на 8,5 років за «ферму ноутбуків» для північнокорейських програмістів

Жительку Аризони, яка облаштувала у себе вдома ферму з 90 ноутбуків, допомагаючи північнокорейським ІТ-спеціалістам видавати…

25.07.2025

В Android додали можливість запуску графічних програм Linux

На канал Android Canary, який прийшов на зміну Android Developer Preview і використовується для тестування…

25.07.2025