Експерти уряду США перевірятимуть всі оновлення нейромереж перед їхнім розгортанням
Компанії OpenAI і Anthropic погодилися дозволити Інституту безпеки штучного інтелекту США перевіряти оновлення своїх нейромереж перед оприлюдненням їх для громадськості. Як інформує ArsTechnica, це викликано зростанням занепокоєння щодо безпеки штучного інтелекту.
Завдяки угоді Інститут безпеки штучного інтелекту США «отримає доступ до основних нових моделей від кожної компанії до та після їх публічного випуску». Це гарантуватиме, що громадська безпека не залежатиме виключно від того, як компанії «оцінюють можливості та ризики для безпеки, а також методи пом’якшення цих ризиків».
Інститут безпеки штучного інтелекту було створено в жовтні 2023 року указом президента США Джо Байдена.
«Ми раді, що досягли угоди з Інститутом безпеки штучного інтелекту США щодо попереднього тестування наших майбутніх моделей», — написав генеральний директор OpenAI Сем Альтман у дописі на X.
29 серпня компанія OpenAI оприлюднила інформацію про подвоєння протягом року кількості активних користувачів до 200 мільйонів. Ця новина з’явилася через день після повідомлення про те, що OpenAI веде переговори про залучення фінансування з оцінкою капіталізації компанії в понад $100 мільярдів.
Міжнародні технологічні корпорації демонструють позитивну динаміку сплати ПДВ в Україні. За перші три місяці поточного…
Зарплати розробників програмного забезпечення, найнятих у першому кварталі 2026 року через український сервіс пошуку роботи…
Криптосвіт сколихнув один із найзухваліших зламів року. Drift Protocol — найбільша децентралізована біржа безстрокових ф'ючерсів…
Компанія Google представила чотири відкриті моделі Gemma 4, кожна з яких відрізняється за кількістю параметрів:…
Компанія Cloudflare, найвідоміша в світі платформа для пом'якшення DDoS-атак, випустила Emdash — нову CMS, яку…
Моделі штучного інтелекту легко брешуть, щоб врятувати інші LLM, стверджують дослідники Центру відповідального децентралізованого інтелекту…