LLM-модель
OpenAI випустила нову голосову модель і знизила ціни на 20%
Журналіст
OpenAI представила велику мовну модель gpt-realtime, оптимізовану для генерації мовлення. Про це повідомляє блог компанії.
Anthropic буде навчати свої моделі на ваших чатах з Claude
Журналіст
Компанія Anthropic оголосила про зміни в політиці обробки даних: до 28 вересня всі користувачі інструмента кодування Claude повинні вибрати — погодитися на використання своїх чатів і кодових сесій для навчання моделей Anthropic або відмовитися від цього. Про це повідомляє The Verge.
Google запускає локальну версію Gemini
Журналіст
Google оголосила про доступність для клієнтів локальної версії Gemini в рамках пропозиції Google Distributed Cloud (GDC). Це дає можливість компаніям і незалежним розробникам використовувати сімейство моделей на власному сервері чи в корпоративному дата-центрі, повідомляє ZDNet.
В Україні шукають розробників національної LLM. Потрібні 6 фахівців
Журналіст
Українська компанія Kyivstar.Tech відкрила шість вакансій для фахівців, які розроблятимуть національну LLM-модель. Про це повідомили у Facebook Kyivstar.Tech.
xAI випустила модель Grok Code Fast 1. Вона оптимізована для розробки і поки безкоштовна
Журналіст
Компанія Ілона Маска xAI випустила велику мовну модель Grok Code Fast 1. Вона має 314 млрд параметрів з архітектурою MoE та контекстним вікном до 262 тисяч токенів. Вартість використання Grok Code Fast 1 становить $0,2 за мільйон вхідних токенів та $1,5 за мільйон вихідних токенів, пише блог GitHub.
Виявлено першу програму-вимагач на базі штучного інтелекту
Журналіст
Дослідники шкідливого програмного забезпечення з компанії ESET Антон Черепанов і Пітер Стричек виявили «перший відомий вірус-вимагач на базі штучного інтелекту», який вони назвали PromptLock. На щастя, це шкідливе програмне забезпечення, схоже, ще не повністю функціональне, пише The Register.
Ілон Маск відкрив код Grok 2.5 і пообіцяв зробити те саме з Grok 3
Журналіст
Ілон Маск заявив, що його компанія xAI відкрила код LLM-моделі Grok 2.5. Завантажити її можна на платформі Hugging Face. Також Маск додав, що більш потужна модель Grok 3 стане відкритою «приблизно через 6 місяців», пише TechCrunch.
Gemini 2.5 Pro тепер доступна в GitHub Copilot. Але тільки для платних користувачів
Журналіст
Передплатники преміум-планів GitHub Copilot, включаючи Pro/Pro+, Business та Enterprise, тепер мають доступ до Google Gemini 2.5 Pro, найкращої LLM-моделі Google на сьогоднішній день. Про це повідомляє Windows Central.
Apple інтегрує Claude в середовище розробки Xcode 26
Журналіст
У бета-версії Xcode 26 з’явилася підтримка моделей Claude від компанії Anthropic. Журналісти сайту 9to5Mac з’ясували, що Apple додала в IDE вбудовану авторизацію через Anthropic-аккаунт, а також знайшли інформацію про моделі Claude Sonnet 4.0 та Claude Opus 4.
Нова LLM-модель Deepseek v3.1 «краща за Claude Opus 4 і в 68 разів дешевша»
Журналіст
Китайський стартап DeepSeek без зайвих анонсів випустив абсолютно нову LLM-модель V3.1. Вона має відкритий код, 685 мільярдів параметрів і довжину контексту до 128k, пише Venture Beat.
Claude зможе сам завершувати діалог, щоб запобігти шкідливому використанню
Журналіст
Компанія Anthropic додала до Claude нову функцію, яка дозволяє LLM-моделі самій завершувати розмови, якщо є підстави вважати, що вона використовується для шкідливих дій. Про це повідомляє Bleeping Computer.
Google випустила мініатюрну модель Gemma 3 270M — її можна запустити на смартфоні
Журналіст
Google представила компактну версію своєї відкритої моделі Gemma, розроблену для роботи на локальних пристроях, включно з мобільними гаджетами. Архітектура Gemma 3 270M забезпечує високу продуктивність, особливо у випадках, коли важливі конфіденційність та при відсутності доступу до інтернету, повідомляє блог Google.
Google відкриє доступ до Gemini 2.5 Deep Research через API
Журналіст
Одна з найпотужніших функцій LLM-моделі Google Gemini 2.5 — Deep Research, яка досі обмежена інтерфейсом gemini.google.com, незабаром стане доступною для розробників через API. Цю інформацію в своєму акаунті X підтвердив менеджер групи продуктів Google Логан Кілпатрік, повідомляє Bleeping Computer.
Claude Sonnet 4 тепер може обробляти цілі програмні проекти за один запит
Журналіст
Компанія Anthropic оголосила про збільшення контекстного меню Claude Sonnet 4 в п’ять разів. Це означає, LLM-модель може обробляти до 1 мільйона токенів контексту за один запит, повідомляє Venture Beat.
Через неспроможність виправити код у Google Gemini стався «нервовий зрив»
Журналіст
Представник Google Deepmind підтвердив наявність помилки нескінченного циклу, яка виникає при роботі LLM-моделі Gemini. Раніше в одному з постів на Reddit продемонстрували приклад неадекватної поведінки моделі штучного інтелекту. Після того, як їй не вдалося виправити баг у коді для створення компілятора, модель почала сеанс жорсткої самокритики. Про це пише Ars Technica.
Grok 4 стає безкоштовною, разом з генератором відео
Журналіст
Компанія xAI зробила LLM-модель Grok 4 безкоштовною для всіх користувачів, хоча з деякими обмеженнями. Про це повідомлено в акаунті Grok в X. Користувачі підтверджують відкриття безкоштовного доступу, хоча офіційного анонсу від компанії ще не надходило.
OpenAI підвищує ліміти використання ChatGPT і повертає «застарілу» модель GPT-4o
Журналіст
Нова ідея Сема Альтмана прибрати з ChatGPT всі інші моделі, крім нової GPT-5, не знайшла підтримки серед користувачів. Через критику в соцмережах компанія вимушена повернути в меню чат-бота старі моделі, включно з GPT-4o, повідомляє Gizmodo.
GPT-5 виявилась «найпотужнішою для кодування», однак багато хто сподівався на краще
Журналіст
Компанія OpenAI випустила флагманську LLM-модель GPT-5, яка, за словами Сема Альтмана, є найкращою моделлю для кодування. У загальному рейтингу LMArena GPT-5 опинилась на першому місці, хоча із вимкненою опцією Remove Style Control новинка все ж поступається Gemini 2.5 Pro.
GitHub розкрив дані про GPT-5 за кілька годин до релізу
Журналіст
GitHub випадково розкрив інформацію про нову серію моделей GPT-5 від OpenAI. У вже видаленому дописі в блозі GitHub повідомлялось, що LLM-модель GPT-5 буде доступна в чотирьох різних версіях. Офіційний реліз очікується сьогодні, 7 серпня, о 21:00 за київським часом, пише The Verge.
Нова модель Claude 4.1 лідирує в кодуванні за кілька днів до виходу GPT-5
Журналіст
Компанія Anthropic випустила нову LLM-модель Claude Opus 4.1, яка є оновленням Claude Opus 4 для агентних завдань та кодування. Opus 4.1 вже доступна для платних користувачів Claude та в Claude Code, інформує блог Anthropic.
OpenAI випустила GPT-OSS — першу LLM-модель з відкритим кодом з часів GPT-2
Журналіст
Компанія OpenAI вперше за шість років випустила модель з відкритим кодом. На ринок представили gpt-oss-120b та gpt-oss-20b — обидві LLM можуть працювати локально на пристроях користувачів і налаштовуватися для конкретних цілей, повідомляє The Verge.
Google випустила модель міркування Gemini Deep 2.5 Think, яка одночасно тестує кілька ідей
Журналіст
Команда Google DeepMind випустила Gemini 2.5 Deep Think — модель міркування, яка здатна відповідати на запитання, писати код, досліджувати та розглядати кілька ідей одночасно, а потім використовувати отримані результати для вибору найкращої відповіді. Про це пише TechCrunch.
«Це небезпечно». Марк Цукерберг пояснив, чому Meta не відкриє код своїх моделей «суперінтелекту»
Журналіст
Засновник і CEO компанії Meta Марк Цукерберг опублікував відкритий лист зі своїм баченням майбутнього тієї серії моделей штучного інтелекту, які невдовзі матимуть назву «суперінтелект». На його думку, до відкриття коду цих продуктів слід ставитись обережно, в першу чергу, через міркування безпеки. Про це пише TechCrunch.
Mistral запускає повний стек кодування на базі Codestral 25.08
Журналіст
Компанія Mistral випустила повний стек кодування зі штучним інтелектом на базі нової LLM-моделі Codestral 25.08, яка на 30% збільшує кількість прийнятих пропозицій коду та на 5% краще дотримується інструкцій.
Інсайдери стверджують, що GPT-5 має значні покращення в кодуванні
Журналіст
Нова LLM-модель GPT-5 від OpenAI, вихід якої очікується в серпні, демонструє значні покращення в програмуванні та логічному мисленні. Інсайдери стверджують, що модель може автоматично обирати рівень складності, аналізуючи запит користувача, що робить її особливо корисною для розробників. Про це повідомляє The Decoder.
Alibaba випустила «найпотужнішу» LLM-модель для програмування — Qwen3-Coder
Журналіст
Alibaba представила нову велику мовну модель з відкритою ліцензією Qwen3-Coder. У компанії назвали модель найкращим засобом для генерації і роботи з кодом на сьогоднішній день. За деякими параметрами продуктивності вона перевищує не тільки нову модель Kimi K2 від конкуруючого китайського стартапу Moonshot, але й більш відому Claude Opus 4 від Anthropic, повідомляє Venture Beat.
Експериментальна LLM-модель OpenAI досягла рівня переможця Міжнародної математичної олімпіади
Журналіст
Експериментальна модель OpenAI досягла рівня золотої медалі на Міжнародній математичній олімпіаді (IMO), вирішивши п’ять із шести завдань і набравши 35 балів із 42 можливих, повідомляє Engadget. Ця подія вже названа «важливою віхою в розвитку штучного інтелекту», особливо в галузі логічного та творчого мислення.
Liquid AI випустив перший SDK для розробки мобільних додатків зі штучним інтелектом
Журналіст
Liquid AI — стартап, заснований колишніми дослідниками Массачусетського технологічного інституту, випустив комплект розробки програмного забезпечення (SDK) Liquid Edge AI (LEAP). Він призначений для полегшення інтеграції LLM-моделей безпосередньо в мобільні додатки. Про це повідомляє Venture Beat.
Gemini 2.5 Pro залишається найкращою LLM-моделлю для кодування. Новинка Grok 4 лише третя
Журналіст
Платформа для бенчмаркінгу великих мовних моделей LMArena опублікувала результати тестування Grok 4. Йдеться про API Grok 4 (grok-4-0709), яка зайняла 3-тє місце в загальному рейтингу Text Arena. Це великий стрибок у порівнянні з Grok 3, яка посіла 8-е місце, пише Bleeping Computer.
Розробник порівняв Claude 4 Opus і Grok 4 на тестах з програмування
Журналіст
Автор блогу Forge Code порівняв на практиці дві потужні LLM-моделі: перевірений Claude 4 Opus і новинку Grok 4. Кожній моделі пропонувалось вирішити 15 завдань загальним обсягом приблизно 28 тисяч рядків коду. Задачі стосувались багатофайлового рефакторингу в кодовій базі Rust, виправлень помилок у коді та взаємних блокувань.
Docker розширює можливості для розробки, розгортання та запуску агентних програм
Журналіст
Компанія Docker оголосила про запуск нових функцій для спрощення розробки, розгортання та запуску агентних додатків на основі штучного інтелекту. Оновлення стосується популярного інструменту Docker Compose, який тепер підтримує роботу агентів та LLM-моделей, щоб розробники могли легко розгортати їх у потрібному масштабі. Про це повідомляє Silicon Angle.
Huawei звинуватили в крадіжці коду інших LLM-моделей
Журналіст
Компанія Huawei Technologies відкинула звинувачення в тому, що її підрозділ Noah’s Ark незаконно використав код конкуруючих LLM-моделей для розробки власної платформи Pangu. Ця заява оприлюднена після того, як кілька днів тому на Github опублікували пост, автор якого стверджував, що вихідний код Pangu містить уривки від ключових конкурентів без зазначення їхнього авторства. Про це повідомляє Bloomberg.
Microsoft випустила безкоштовний курс по Model Context Protocol для Python, C# та Java з підтримкою української мови
Журналіст
Компанія Microsoft запустила безкоштовний практичний курс по Model Context Protocol (MCP) з прикладами на Python, C#, Java і TypeScript для розробки LLM-додатків і серверів MCP. Навчальна програма з підтримкою української мови доступна в офіційному репозиторії MCP на GitHub.
Baidu відкриває код LLM-моделі Ernie
Журналіст
Китайський IT-гігант Baidu відкриває вихідний код великої мовного моделі Ernie. Процес буде поступовим і розпочнеться сьогодні, в понеділок. У Китаї вважають, що з моменту появи DeepSeek це стане найбільшою подією на ринку штучного інтелекту, оскільки користувачі отримають доступ до потужної моделі безкоштовно або набагато дешевше, ніж головні конкуренти. Про це пише CNBC.
Microsoft вбудувала локальну LLM-модель Mu у Windows 11
Журналіст
Microsoft інтегрувала в операційну систему Windows 11 нову локальну LLM-модель Mu, яка має 330 млн параметрів і швидкість до 100 токенів на секунду. Вона працює на самому пристрої і не потребує підключення до хмарних платформ. Запустити Mu можна в додатку «Параметри», інформує блог Microsoft.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: