Рубріки: Новини

Meta винайшла спосіб, які зменшити галюцинації штучного інтелекту

Дмитро Сімагін

Дослідники з Meta AI опублікували статтю, в якій пропонують «масштабовані шари пам’яті» для рішення проблеми галюцинацій штучного інтелекту. Під галюцинаціями слід розуміти такі артефакти, як зайві пальці та інші несподівані елементи, що виникають під час генерації візуального контенту.

Масштабовані шари пам’яті додають більше параметрів до великої мовної моделі (LLM), щоб збільшити її здатність до навчання без додаткових обчислювальних ресурсів. 

Традиційні мовні моделі використовують «щільні шари» для кодування величезної кількості інформації в їхніх параметрах. У щільних шарах всі параметри використовують свою повну ємність і активуються одночасно під час виведення. Проблема в тому, що збільшення щільних шарів потребує додаткових обчислювальних та енергетичних ресурсів.

У своїй статті дослідники з Meta пропонують кілька модифікацій, які вирішують цю проблему. По-перше, вони налаштували шари пам’яті для паралелізації, розподіляючи їх по кількох GPU для зберігання мільйонів пар ключ-значення без зміни інших шарів моделі. Вони також реалізували спеціальне ядро ​​CUDA для обробки операцій із високою пропускною здатністю пам’яті. Крім того, дослідники розробили механізм спільного використання параметрів, що підтримує єдиний набір параметрів пам’яті для декількох шарів пам’яті всередині моделі. Це означає, що ключі та значення, які використовуються для пошуку, поділяються між шарами. Ці модифікації дозволяють впроваджувати шари пам’яті LLM без уповільнення моделі.

Для тестування шарів пам’яті вчені модифікували моделі Llama, замінивши один або кілька щільних шарів загальним шаром пам’яті. Результати порівняння з щільними шарами довели, що моделі з пам’яттю значно перевершують щільні базові моделі і конкурують з моделями, які використовують у 2-4 рази більше обчислювальних ресурсів. 

Дослідники також виявили, що переваги моделей із пам’яттю залишаються стабільними зі збільшенням розміру моделі. «Враховуючи ці результати, ми настійно рекомендуємо інтегрувати шари пам’яті у всі архітектури штучного інтелекту наступного покоління», — пишуть вчені в своїй статті.

 

Останні статті

Безлім на швидкості 400 Кбіт/с: уряд Південної Кореї зобов’язав мобільних операторів надавати інтернет безкоштовно

Уряд Південної Кореї оголосив про масштабну реформу ринку мобільного зв'язку. Міністерство науки та інформаційно-комунікаційних технологій…

10.04.2026

Видалення програми не врятує: ФБР навчилося читати повідомлення Signal через кеш iOS

Правоохоронні органи винайшли новий метод для обходу конфіденційності месенджерів. Під час судового процесу в Техасі…

10.04.2026

Claude Cowork став загальнодоступним в усіх тарифних планах на Windows і macOS

Компанія Anthropic оголосила про масштабне оновлення свого інструменту Claude Cowork. Тепер він доступний користувачам усіх…

10.04.2026

Коментарі в Instagram тепер можна редагувати. Але є умова

Соцмережа Instagram офіційно запровадила функцію, на яку користувачі чекали роками — можливість редагувати опубліковані коментарі.…

10.04.2026

Чат-бот Gemini тепер може створювати 3D-моделі та інтерактивні діаграми

Google продовжує розширювати межі мультимодальності свого штучного інтелекту. Останнє оновлення Gemini впроваджує дві критично важливі…

10.04.2026

«Банки почнуть зламувати першими»: міністр фінансів США Скотт Бессент терміново зібрав банкірів через ризики Claude Mythos

Міністр фінансів США Скотт Бессент і голова Федеральної резервної системи Джером Пауелл провели термінову зустріч…

10.04.2026