Співзасновник Apple Стів Возняк порадив бути обережними щодо популярного чат-бота ChatGPT. Про це він сказав ведучому Squawk Box Ендрю Россу Соркіну в інтерв’ю, повідомляє Insider.
Стів Возняк вважає ChatGPT «досить вражаючим» і «корисним для людей», але і підкреслює, що він може робити серйозні помилки.
«Біда в тому, що він робить для нас хороші речі, але може робити жахливі помилки, не знаючи, що таке людяність», — попередив Возняк.
В інтерв’ю Возняк також провів паралель із ШІ в безпілотних автомобілях і сказав, що штучний інтелект наразі не може замінити людей-водіїв.
«Це ніби ви керуєте автомобілем і знаєте, що зараз можуть зробити інші автомобілі, тому що ви знаєте людей», — сказав він.
Нагадаємо, на днях ChatGPT став найбільш зростаючим застосунком в історії.
А на початку минулого тижня Microsoft анонсувала запуск нової версії пошукової системи Bing та нової версії браузера Edge, які будуть базуватися на штучному інтелекті Open AI. На презентації представили масштабні плани по створенню «нового Bing», який працює в різних конфігураціях.
Читайте також:
Це насторожує: ChatGPT тепер знаходить та фіксить баги в коді
Чат-бот ChatGPT від OpenAI пише вірші, сперечається і вибачається. А також вчить робити вибухівку.
Шифрування, фішинг, наркоторгівля: кіберзлочинці освоюють ChatGPT
ChatGPT влаштувався на роботу програмістом Google з зарплатнею $15 тис.
Розробник Ендрю Ярос продемонстрував веб-емулятор оригінальної операційної системи Lisa OS, яка є першою графічною ОС…
Експерти відділу безпеки Cisco Talos розкрили оператора шкідливих програм як послуги (Malware-as-a-Service, MaaS), який використовував…
У першій половині 2025 року було викрадено понад $2,17 млрд у криптовалюті, що більше, ніж…
Компанія OpenAI представила агента ChatGPT, який позиціонується як інструмент, що може виконувати роботу від імені…
Користувачі інструменту командного рядка Claude Code неочікувано зіткнулися з обмеженням лімітів використання, в тому числі…
Intel планує звільнити ще 5000 працівників на додачу до 20 000, яких скоротили цього року.…