Рубріки: Новини

Meta винайшла спосіб, які зменшити галюцинації штучного інтелекту

Дмитро Сімагін

Дослідники з Meta AI опублікували статтю, в якій пропонують «масштабовані шари пам’яті» для рішення проблеми галюцинацій штучного інтелекту. Під галюцинаціями слід розуміти такі артефакти, як зайві пальці та інші несподівані елементи, що виникають під час генерації візуального контенту.

Масштабовані шари пам’яті додають більше параметрів до великої мовної моделі (LLM), щоб збільшити її здатність до навчання без додаткових обчислювальних ресурсів. 

Традиційні мовні моделі використовують «щільні шари» для кодування величезної кількості інформації в їхніх параметрах. У щільних шарах всі параметри використовують свою повну ємність і активуються одночасно під час виведення. Проблема в тому, що збільшення щільних шарів потребує додаткових обчислювальних та енергетичних ресурсів.

У своїй статті дослідники з Meta пропонують кілька модифікацій, які вирішують цю проблему. По-перше, вони налаштували шари пам’яті для паралелізації, розподіляючи їх по кількох GPU для зберігання мільйонів пар ключ-значення без зміни інших шарів моделі. Вони також реалізували спеціальне ядро ​​CUDA для обробки операцій із високою пропускною здатністю пам’яті. Крім того, дослідники розробили механізм спільного використання параметрів, що підтримує єдиний набір параметрів пам’яті для декількох шарів пам’яті всередині моделі. Це означає, що ключі та значення, які використовуються для пошуку, поділяються між шарами. Ці модифікації дозволяють впроваджувати шари пам’яті LLM без уповільнення моделі.

Для тестування шарів пам’яті вчені модифікували моделі Llama, замінивши один або кілька щільних шарів загальним шаром пам’яті. Результати порівняння з щільними шарами довели, що моделі з пам’яттю значно перевершують щільні базові моделі і конкурують з моделями, які використовують у 2-4 рази більше обчислювальних ресурсів. 

Дослідники також виявили, що переваги моделей із пам’яттю залишаються стабільними зі збільшенням розміру моделі. «Враховуючи ці результати, ми настійно рекомендуємо інтегрувати шари пам’яті у всі архітектури штучного інтелекту наступного покоління», — пишуть вчені в своїй статті.

 

Останні статті

Новою СЕО Sigma Software стане Катерина Тулузова

Sigma Software, що є підрозділом Sigma Software Group, заявила про зміну генерального директора. Компанію очолить…

06.06.2025

У Windows 11 з’явиться новий текстовий редактор Edit, легший за Блокнот. Він працюватиме з командного рядка

Microsoft готує додати у Windows 11 новий «легкий» текстовий редактор Edit. Він важить всього 230…

06.06.2025

OpenAI готує до релізу модель o3-pro. Вона найпотужніша для кодування, але коштує $200

Компанія OpenAI у найближчі тижні планує випустити оновлення для тарифного плану ChatGPT Pro, доступ до…

06.06.2025

СЕО знають, що через штучний інтелект будуть звільнення, але всім брешуть — софтверні інвестори

Керівники компаній часто вводять в оману, розповідаючи, що штучний інтелект лише підвищить продуктивність і не…

06.06.2025

США оголосили нагороду в $10 млн за інформацію про українського хакера, який втік у Росію

Уряд США пропонує до $10 мільйонів за інформацію про місцезнаходження розробника шкідливого програмного забезпечення RedLine…

06.06.2025

Google запевняє, що оновлена модель Gemini Pro 2.5 стала краще працювати з кодом

Google оголосила про оновлення своєї LLM-моделі Gemini 2.5 Pro, яка, за твердженням компанії, стала краще…

06.06.2025