ChatGPT может модерировать незаконный контент на сайтах, таких как Facebook | ENBLE

ChatGPT модерирует незаконный контент на сайтах, включая Facebook | ENBLE

GPT-4 — большая языковая модель (LLM), которая обеспечивает функциональность ChatGPT Plus, скоро может стать онлайн-модератором, контролирующим форумы и социальные сети на предмет вредоносного контента, который не должен увидеть свет. Об этом говорится в новой записи в блоге разработчика ChatGPT, OpenAI, который утверждает, что это может предложить «более положительное видение будущего цифровых платформ».

Согласно OpenAI, используя искусственный интеллект (ИИ) вместо человеческих модераторов, GPT-4 может осуществлять «гораздо более быстрые итерации изменений в политике, сокращая цикл с месяцев до часов». Кроме того, OpenAI утверждает, что “GPT-4 также способна интерпретировать правила и нюансы в документации о политике длинного контента и мгновенно адаптироваться к обновлениям политики, что приводит к более последовательной маркировке”.

Rolf van Root / Unsplash

Например, в блоге объясняется, что команды модерации могут назначать метки контенту, чтобы объяснить, соответствует ли он правилам данной платформы или нет. Затем GPT-4 может взять тот же набор данных и назначить свои собственные метки, не зная ответов заранее.

Модераторы могут затем сравнить два набора меток и использовать любые расхождения для снижения путаницы и уточнения своих правил. Другими словами, GPT-4 может действовать как обычный пользователь и оценивать, имеют ли правила смысл.

Человеческая сторона

OpenAI

В настоящее время контент-модерацию на различных веб-сайтах осуществляют люди, что подвергает их регулярной опасности незаконного, насильственного или иным образом вредоносного контента. Мы многократно видели ужасные последствия, которые контент-модерация может иметь для людей, с Facebook, который заплатил $52 миллиона модераторам, страдающим от ПТСР в связи с травмами, полученными на работе.

Снижение нагрузки на человеческих модераторов может помочь улучшить их условия работы, и поскольку ИИ, такой как GPT-4, не подвержен психологическому стрессу, который испытывают люди при работе с проблемным контентом, его можно использовать, не беспокоясь о выгорании и ПТСР.

Однако возникает вопрос о том, приведет ли использование ИИ в этом случае к потере рабочих мест. Контент-модерация не всегда является приятной работой, но это все равно работа, и если GPT-4 заменит людей в этой области, то возникнет опасение, что бывшие контент-модераторы просто будут уволены, а не переведены на другие должности.

OpenAI не упоминает эту возможность в своей записи в блоге, и это действительно решение платформ контента. Но это может не слишком успокоить опасения о том, что ИИ будет использоваться крупными компаниями просто как мера по сокращению затрат, без особой заботы о последствиях.

Тем не менее, если ИИ может снизить или устранить психическое разрушение, с которым сталкиваются перегруженные и недооцененные команды, модерирующие контент на веб-сайтах, которые используют миллиарды людей каждый день, то в этом может быть что-то положительное. Остается только увидеть, будет ли это сопровождаться одинаково разрушительными сокращениями.