Meta винайшла спосіб, які зменшити галюцинації у штучного інтелекта
Дослідники з Meta AI опублікували статтю, в якій пропонують «масштабовані шари пам’яті» для рішення проблеми галюцинацій штучного інтелекту. Під галюцинаціями слід розуміти такі артефакти, як зайві пальці та інші несподівані елементи, що виникають під час генерації візуального контенту.
Масштабовані шари пам’яті додають більше параметрів до великої мовної моделі (LLM), щоб збільшити її здатність до навчання без додаткових обчислювальних ресурсів.
Традиційні мовні моделі використовують «щільні шари» для кодування величезної кількості інформації в їхніх параметрах. У щільних шарах всі параметри використовують свою повну ємність і активуються одночасно під час виведення. Проблема в тому, що збільшення щільних шарів потребує додаткових обчислювальних та енергетичних ресурсів.
У своїй статті дослідники з Meta пропонують кілька модифікацій, які вирішують цю проблему. По-перше, вони налаштували шари пам’яті для паралелізації, розподіляючи їх по кількох GPU для зберігання мільйонів пар ключ-значення без зміни інших шарів моделі. Вони також реалізували спеціальне ядро CUDA для обробки операцій із високою пропускною здатністю пам’яті. Крім того, дослідники розробили механізм спільного використання параметрів, що підтримує єдиний набір параметрів пам’яті для декількох шарів пам’яті всередині моделі. Це означає, що ключі та значення, які використовуються для пошуку, поділяються між шарами. Ці модифікації дозволяють впроваджувати шари пам’яті LLM без уповільнення моделі.
Для тестування шарів пам’яті вчені модифікували моделі Llama, замінивши один або кілька щільних шарів загальним шаром пам’яті. Результати порівняння з щільними шарами довели, що моделі з пам’яттю значно перевершують щільні базові моделі і конкурують з моделями, які використовують у 2-4 рази більше обчислювальних ресурсів.
Дослідники також виявили, що переваги моделей із пам’яттю залишаються стабільними зі збільшенням розміру моделі. «Враховуючи ці результати, ми настійно рекомендуємо інтегрувати шари пам’яті у всі архітектури штучного інтелекту наступного покоління», — пишуть вчені в своїй статті.
До кінця 2025 року у Китаї планують налагодити масове виробництво нової технології зберігання даних –…
Один з лідерів у галузі штучного інтелекту, компанія OpenAI, планує запустити свою нову мовну модель…
Google тестує інструмент для вайб-кодування під назвою Opal. Поки він доступний користувачам лише в США…
Маркетплейс мобільних застосунків App Store оновив віковий рейтинг для програм. Додано нові рейтингові обмеження та…
Жительку Аризони, яка облаштувала у себе вдома ферму з 90 ноутбуків, допомагаючи північнокорейським ІТ-спеціалістам видавати…
На канал Android Canary, який прийшов на зміну Android Developer Preview і використовується для тестування…