Рубріки: Новини

Meta винайшла спосіб, які зменшити галюцинації штучного інтелекту

Дмитро Сімагін

Дослідники з Meta AI опублікували статтю, в якій пропонують «масштабовані шари пам’яті» для рішення проблеми галюцинацій штучного інтелекту. Під галюцинаціями слід розуміти такі артефакти, як зайві пальці та інші несподівані елементи, що виникають під час генерації візуального контенту.

Масштабовані шари пам’яті додають більше параметрів до великої мовної моделі (LLM), щоб збільшити її здатність до навчання без додаткових обчислювальних ресурсів. 

Традиційні мовні моделі використовують «щільні шари» для кодування величезної кількості інформації в їхніх параметрах. У щільних шарах всі параметри використовують свою повну ємність і активуються одночасно під час виведення. Проблема в тому, що збільшення щільних шарів потребує додаткових обчислювальних та енергетичних ресурсів.

У своїй статті дослідники з Meta пропонують кілька модифікацій, які вирішують цю проблему. По-перше, вони налаштували шари пам’яті для паралелізації, розподіляючи їх по кількох GPU для зберігання мільйонів пар ключ-значення без зміни інших шарів моделі. Вони також реалізували спеціальне ядро ​​CUDA для обробки операцій із високою пропускною здатністю пам’яті. Крім того, дослідники розробили механізм спільного використання параметрів, що підтримує єдиний набір параметрів пам’яті для декількох шарів пам’яті всередині моделі. Це означає, що ключі та значення, які використовуються для пошуку, поділяються між шарами. Ці модифікації дозволяють впроваджувати шари пам’яті LLM без уповільнення моделі.

Для тестування шарів пам’яті вчені модифікували моделі Llama, замінивши один або кілька щільних шарів загальним шаром пам’яті. Результати порівняння з щільними шарами довели, що моделі з пам’яттю значно перевершують щільні базові моделі і конкурують з моделями, які використовують у 2-4 рази більше обчислювальних ресурсів. 

Дослідники також виявили, що переваги моделей із пам’яттю залишаються стабільними зі збільшенням розміру моделі. «Враховуючи ці результати, ми настійно рекомендуємо інтегрувати шари пам’яті у всі архітектури штучного інтелекту наступного покоління», — пишуть вчені в своїй статті.

 

Останні статті

«У нас є графічні процесори, але їх не можна підключити»: CEO Microsoft скаржиться на нестачу електроенергії

Генеральний директор Microsoft Сатья Наделла заявив, що проблема індустрії штучного інтелекту полягає в нестачі енергетичних…

03.11.2025

Alibaba відкрила безкоштовний доступ до своєї найпотужнішої моделі Qwen3-Max Thinking

Компанія Alibaba представила нову флагманську LLM-модель Qwen3 Max Thinking. Вона має режим міркування і вже…

03.11.2025

Y Combinator змінить свої правила заради українських фаундерів, які не можуть виїхати з країни

Найвідоміший у світі стартап-акселератор Y Combinator оголосив набір в зимову програму, яка триватиме з січня…

03.11.2025

Ілон Маск анонсував запуск месенджера X Chat, система шифрування якого «схожа на біткойн»

Компанія X готує до запуску окрему програму для обміну повідомленнями під назвою X Chat. Вона…

03.11.2025

В OpenAI з’явилась нова категорія фахівців — Super Junior

Компанія OpenAI все частіше бере до себе на роботу фахівців рівня Super Junior — початківців,…

03.11.2025

Найкращий квартал року: експорт ІТ-послуг з України демонструє зростання

За підсумками вересня 2025 року обсяг IT-експорту з України становив $557 мільйонів, що на $17…

31.10.2025