ChatGPT может модерировать незаконный контент на сайтах, таких как Facebook | ENBLE
ChatGPT модерирует незаконный контент на сайтах, включая Facebook | ENBLE
GPT-4 — большая языковая модель (LLM), которая обеспечивает функциональность ChatGPT Plus, скоро может стать онлайн-модератором, контролирующим форумы и социальные сети на предмет вредоносного контента, который не должен увидеть свет. Об этом говорится в новой записи в блоге разработчика ChatGPT, OpenAI, который утверждает, что это может предложить «более положительное видение будущего цифровых платформ».
Согласно OpenAI, используя искусственный интеллект (ИИ) вместо человеческих модераторов, GPT-4 может осуществлять «гораздо более быстрые итерации изменений в политике, сокращая цикл с месяцев до часов». Кроме того, OpenAI утверждает, что “GPT-4 также способна интерпретировать правила и нюансы в документации о политике длинного контента и мгновенно адаптироваться к обновлениям политики, что приводит к более последовательной маркировке”.
Например, в блоге объясняется, что команды модерации могут назначать метки контенту, чтобы объяснить, соответствует ли он правилам данной платформы или нет. Затем GPT-4 может взять тот же набор данных и назначить свои собственные метки, не зная ответов заранее.
Модераторы могут затем сравнить два набора меток и использовать любые расхождения для снижения путаницы и уточнения своих правил. Другими словами, GPT-4 может действовать как обычный пользователь и оценивать, имеют ли правила смысл.
Человеческая сторона
В настоящее время контент-модерацию на различных веб-сайтах осуществляют люди, что подвергает их регулярной опасности незаконного, насильственного или иным образом вредоносного контента. Мы многократно видели ужасные последствия, которые контент-модерация может иметь для людей, с Facebook, который заплатил $52 миллиона модераторам, страдающим от ПТСР в связи с травмами, полученными на работе.
- Стриминг достигает новых высот этим летом. Вот сервисы, которые вы ...
- Лучшая видеокарта для 4K разрешение UHD, трассировка лучей и многое...
- Думаете о подписке на Walmart Plus? Вот что вам нужно знать
Снижение нагрузки на человеческих модераторов может помочь улучшить их условия работы, и поскольку ИИ, такой как GPT-4, не подвержен психологическому стрессу, который испытывают люди при работе с проблемным контентом, его можно использовать, не беспокоясь о выгорании и ПТСР.
Однако возникает вопрос о том, приведет ли использование ИИ в этом случае к потере рабочих мест. Контент-модерация не всегда является приятной работой, но это все равно работа, и если GPT-4 заменит людей в этой области, то возникнет опасение, что бывшие контент-модераторы просто будут уволены, а не переведены на другие должности.
OpenAI не упоминает эту возможность в своей записи в блоге, и это действительно решение платформ контента. Но это может не слишком успокоить опасения о том, что ИИ будет использоваться крупными компаниями просто как мера по сокращению затрат, без особой заботы о последствиях.
Тем не менее, если ИИ может снизить или устранить психическое разрушение, с которым сталкиваются перегруженные и недооцененные команды, модерирующие контент на веб-сайтах, которые используют миллиарды людей каждый день, то в этом может быть что-то положительное. Остается только увидеть, будет ли это сопровождаться одинаково разрушительными сокращениями.