Компания OpenAI, создавшая популярный ШИ-бот ChatGPT, официально закрыла свое приложение, идентифицирующее текст, сгенерированный искусственным интеллектом. Причина – его низкая точность.
Об этом сообщил Insider.
Поскольку гонка искусственного интеллекта только набирает обороты, различие созданного человеком и ИИ — один из важнейших вопросов, на который должна ответить индустрия.
Как известно, ChatGPT, Google Bard и другие ИИ-сервисы могут создавать убедительный и полезный текст. Это может запросить и ускорить написание кода, но может спровоцировать появление текста с неточностями и фактическими ошибками. Итак, создание инструмента для различения того, что создано человеком и ИИ является одной из основных задач технологической индустрии.
OpenAI понял это буквально сразу же после запуска ChatGPT. В январе компания обнародовала классификатор для различения текста, написанного человеком, от текста, написанного искусственным интеллектом от разных разработчиков.
OpenAI заявила, что классификаторы важны для решения многих проблемных ситуаций. Среди них – ложные утверждения о том, что сгенерированный искусственным интеллектом текст был написан человеком, запуск автоматизированных дезинформационных кампаний и использование инструментов искусственного интеллекта для выполнения домашних или тестовых заданий.
Но менее чем через семь месяцев проект был отменен.
«По состоянию на 20 июля 2023 классификатор искусственного интеллекта больше не доступен из-за его низкой точности. Мы прорабатываем отзывы и сейчас исследуем более эффективные методы происхождения текста», — сообщила OpenAI в своем блоге .
Если OpenAI не может различить написанный ИИ текст, может ли кто-то другой? Над этой задачей работают и другие проекты, в том числе стартап GPTZero. Но OpenAI считается самым лучшим в этой сфере.
Когда мы не можем отличить ИИ от человеческого текста, восприятие онлайн-информации становится более проблематичным. Да, уже есть спам-сайты, которые создают автоматическое содержимое с помощью новых моделей ИИ.
Но если технологические компании будут случайно использовать полученные искусственным интеллектом данные для обучения новых моделей, некоторые исследователи опасаются, что эти модели ухудшатся.
Группа исследователей искусственного интеллекта из передовых университетов, включая Оксфорд и Кембридж, изучала, что происходит, когда текст, созданный моделью искусственного интеллекта в стиле GPT (например, GPT-4), образует большую часть учебного набора данных для следующих моделей.
“Мы обнаружили, что использование контента, созданного моделью, в обучении вызывает необратимые дефекты в полученных моделях”, – подытожили они в недавней исследовательской статье .
Увидев, что может пойти не так, авторы сделали любопытный прогноз.
“Это нужно воспринимать серьезно, если мы хотим сохранить преимущества обучения на основе крупномасштабных данных, собранных из Интернета”, – написали они.
Вместе с этим недавно компания OpenAI начала формирование специальной команды для разработки способов управления и контроля «сверхумного» искусственного интеллекта.
Читайте также:
Прокси (proxy), или прокси-сервер — это программа-посредник, которая обеспечивает соединение между пользователем и интернет-ресурсом. Принцип…
Согласитесь, было бы неплохо соединить в одно сайт и приложение для смартфона. Если вы еще…
Повсеместное распространение смартфонов привело к огромному спросу на мобильные игры и приложения. Миллиарды пользователей гаджетов…
В перечне популярных чат-ботов с искусственным интеллектом Google Bard (Gemini) еще не пользуется такой популярностью…
Скрипт (англ. — сценарий), — это небольшая программа, как правило, для веб-интерфейса, выполняющая определенную задачу.…
Дедлайн (от англ. deadline — «крайний срок») — это конечная дата стачи проекта или задачи…