OpenAI разрабатывает систему модерации контента на базе ИИ
OpenAI недавно поделилась новостью, что работает над системой, которая произведет революцию в модерации контента, используя свой GPT-4 LLM. Система будет использовать искусственный интеллект (AI) для более быстрого обновления политики, последовательного принятия решений и снижения нагрузки на модераторов-людей.
Традиционно модерация контента была умственным и трудоемким процессом: модераторы-люди брали на себя ответственность за просеивание больших объемов контента и отсеивание вредных материалов. В нынешнем виде эта модель фильтрации отнимает много времени, а также в некоторых случаях подвергает модераторов эмоциональному стрессу.
Еще одним преимуществом использования GPT-4 для системы модерации контента на основе искусственного интеллекта будет возможность интерпретировать и адаптировать сложные политики в отношении контента в режиме реального времени. На доработку и внедрение этого аспекта исторически уходили месяцы, и все это с помощью искусственного интеллекта можно было бы сократить до нескольких часов.
При этом OpenAI по-прежнему рекомендует человеческий надзор, по крайней мере, для начала. Например, после составления руководства эксперты по политике будут работать вместе с GPT-4 в итерационном процессе, совершенствуя политику до тех пор, пока она не будет соответствовать стандартам качества. Проще говоря, преимущества системы на базе искусственного интеллекта, управляемой оператором-человеком, могут обеспечить повышенную согласованность, скорость и защиту психического здоровья модераторов-людей.
Фото превью / Nikolas Kokovlis / Nurphoto