В эпоху цифровых технологий, в которой мы живем, контроль контента стала одной из самых насущных проблем для онлайн-платформ. С развитием искусственного интеллекта OpenAI твердо верит в Способность GPT-4 решать и потенциально решать эту проблему. В своем официальном блоге компания, находящаяся в центре внимания того периода, рассказывает об отличном способе изменить направление в ближайшем будущем.
Темы этой статьи:
Идея управления контентом OpenAI далеко не глупа
OpenAI, организация, стоящая за революционным программным обеспечением, таким как ChatGPT и DALL-E, убеждена, что GPT-4 может быть la ключ для решения одной из самых сложных проблем технологического сектора: управления контентом в масштабе. Идея в том, что GPT-4 может заменить огромное количество модераторов-людей, обеспечивая почти сравнимую точность и большую согласованность в решениях.
В последнее время Раскрыт OpenAI уже испытали использование GPT-4 для разработки и уточнения своих политик содержания. Это касается не только маркировки контента, но и принятие важных решений о том, что можно и что нельзя разрешать. Лилиан Венг, глава отдела систем безопасности в OpenAI, подчеркнул важность этой эволюции, заявив, что она представляет собой значительный шаг на пути ИИ можно использовать для решения реальных проблем, предлагая решения, которые могут принести пользу всему обществу.
См. также: Эта компания доказывает, что ИИ не лишит нас рабочих мест… наоборот
Три причины, по которым работа OpenAI является революционной
- Последовательность в решениях: в отличие от людей, которые могут интерпретировать политику по-разному, машины последовательны в своих суждениях. Руководства, которые могут быть размером с книгу и часто меняться, могут быть реализованы мгновенно с помощью больших языковых моделей, в то время как людям потребуется много тренировок, чтобы учиться и адаптироваться.
- Скорость в создании новых полисов: GPT-4 может разработать новую политику за несколько часов, коренным образом изменив процесс, который традиционно занимал недели или месяцы. Это включает в себя разработку, маркировку, сбор отзывов и уточнение политик.
- Благосостояние рабочих: OpenAI уделяет особое внимание благополучию работников, которые постоянно сталкиваются с вредоносным контентом, таким как жестокое обращение с детьми или видео с пытками. Автоматизация этого процесса может уменьшить подверженность человека такому травмирующему контенту.
Однако до полной автоматизации модерации еще далеко. Хотя ИИ может улучшить модерацию, впереди еще много проблем. Например, различие между вводящим в заблуждение, некорректным и агрессивным содержанием которые не обязательно являются незаконными, представляет серьезную проблему для автоматизированных систем. Даже экспертам-людям сложно маркировать такие посты, а машины часто допускают ошибки.
Опасность для человека?
Как обычно, мы всегда говорим об этом: не украдет ли ИИ наши рабочие места? Большинству компаний, использующих модерацию контента, стоит проявить осторожность. Хотя за последние годы искусственный интеллект значительно продвинулся вперед, это не отнимет рабочие места у людей в ближайшее время. Человеческий надзор остается критически важным компонентом для точного мониторинга онлайн-контента. Таким образом, ответ — нет, это не украдет работу, но улучшит ее.
Однако важно понимать, что такая эволюция технологии также должно соответствовать повышению уровня специализации работников технологической области. При его отсутствии замена неизбежна.
В лучшем случае то, что у нас есть и будет, — это гибрид. Но за последние несколько лет все, что я видел, это увеличение найма, а не уменьшение" сказал Профессор Калифорнийского университета в Лос-Анджелесе Сара Т. Робертс Грань несколько лет назад. Успешная стратегия модерации контента должна объединить лучшее из технологий следующего поколения и человеческих агентов.