Рубріки: Новини

Meta працює над новою моделлю ШІ, яка не поступається GPT-4

Ігор Шелудченко

Meta, материнська компанія Facebook і Instagram, працює над новою системою штучного інтелекту, яка має бути такою ж потужною, як і GPT-4 від OpenAI.

Про це повідомив The Wall Street Journal з посиланням на власні джерела.

Що відомо?

Meta прагне зробити свою нову LLM (Large Language Model) у кілька разів потужнішою за Llama 2, яка вийшла пару місяців тому. 

Майбутня система допоможе іншим компаніям створювати сервіси, які робитимуть складний текст, будуть проводити аналіз та генеруватимуть більш складні висновки.

Над системою працюватиме група, сформована на початку цього року Марком Цукербергом.

Meta планує розпочати навчання нової LLM на початку 2024 року.

Плани щодо нової моделі є частиною зусиль Цукерберга утвердити Meta як головну силу у світі ШІ (в контексті того, що вона зараз досить суттєво відстає від конкурентів).

Зараз компанія будує центри обробки даних, необхідні для роботи, і купує H100, надпотужні чіпи Nvidia, які використовуються для навчання ШІ.

Потужніша за GPT-4

Meta планує навчити нову модель на власній інфраструктурі.

Цукерберг наполягає на тому, щоб нова модель, як і попередні розробки Meta, була з відкритим кодом і, отже, безкоштовною для компаній задля створення інструментів на основі штучного інтелекту.

Meta сподівається, що нова модель буде приблизно такою ж потужною, як і GPT-4, яку OpenAI запустив у березні. GPT-4, нагадаємо, лежить в основі ChatGPT.

Недоліки моделей з відкритим кодом

Бажання Meta створити модель з відкритими кодом має переваги. Та й крім того, Цукерберг відкрито агітував за них черех низьку вартість і адаптивність.

Але й у них є свої недоліки.  До них належать підвищені ризики використання інформації, яка потенційно захищена авторським правом, і ширший доступ до інструменту, який може бути використаний для генерування та поширення дезінформації чи інших шкідливих дій.

Великі мовні моделі зазвичай стають потужнішими, коли навчаються на більшій кількості даних. Найпотужніша версія моделі Llama 2 була навчена на 70 мільярдах параметрів.

OpenAI не розголошує розмір GPT-4, але, за оцінками, він приблизно в 20 разів перевищує розмір Llama 2 і має 1,5 трильйона параметрів.

Читайте також:

Протягом наступних п’яти років у кожного з’явиться свій ШІ-помічник — співзасновник Google DeepMind

«Дешево та ефективно»: розробник створив ШІ-«конвеєр фейків» за $400

Дешеві та ефективні: дослідники занепокоєні темпами росту ШІ спам-ботів

Останні статті

OpenAI готує реліз нової моделі Garlic, яка спеціалізується на кодуванні

Компанія OpenAI працює над новою LLM-моделлю Garlic («Часник»), яка спеціалізується на програмуванні та логічних завданнях.…

03.12.2025

Верховна Рада не буде підвищувати податки для ФОП третьої групи

Верховна Рада України не буде розглядати питання щодо впровадження ПДВ для фізичних осіб підприємців з…

03.12.2025

Розробники з КНДР тепер готові орендувати особисті дані за третину зарплати

Шукаючи віддалену роботу в західних компаніях, громадяни КНДР тепер готові не тільки «орендувати ноутбук», але…

03.12.2025

Віддалена робота шкодить молодим співробітникам та якості їхнього коду

Молоді спеціалісти, які працюють віддалено, гірше оволодівають новими навичками та мають менше можливостей для кар'єрного…

03.12.2025

Mistral випускає серію моделей Mistral 3 для роботи на ноутбуках, дронах і смартфонах

Французький стартап Mistral AI випустив сімейство з 10 моделей з відкритим кодом, розроблених для роботи…

03.12.2025

Чат-боти знижують мотивацію та роблять навчання поверхневим

Нове дослідження Ширі Мелумад (Університет Пенсильванії) та Джин Хо Юн (Університет Нью-Мексико) доводить, що люди,…

02.12.2025