Запрет на Dean.Bot OpenAI против политических чат-ботов

OpenAI прекращает разработку чатбота, возбудившего интерес для маловероятного демократического кандидата

Правила выборов OpenAI теперь находятся на тестировании.

За несколько месяцев до выборов 2024 года и менее чем за неделю после того, как 🔥🔥 наиболее известное ИИ обещало помочь в соблюдении справедливого демократического процесса, разработчики тестируют эти обещания. 20 января, согласно The Washington Post, OpenAI запретила команде, стоящей за Dean.Bot, чатботом, работающим на основе ChatGPT, предназначенным для вызова интереса к “тёмному коню” демократического кандидата из Миннесоты, Дина Филлипса. Компания указала на нарушение правил использования компании и написала в The Washington Post: “Любой, кто создает с помощью наших инструментов, должен следовать нашим политикам использования. Мы недавно удалили учетную запись разработчика, которая сознательно нарушала наши политики использования API, запрещающие политическую агитацию и подражание конкретному лицу без согласия”.

Чатбот был удален вскоре после публикации статьи об его запуске, но не до того, как разработчики попробовали поддерживать его работу с помощью других API. Бот был создан компанией Delphi, ИИ-стартапом, заказанным относительно новой супер PAC, известной как We Deserve Better, основанной предпринимателями из Силиконовой Долины Мэттом Крисилоффом и Джедом Сомером. ⭐

Что делал Dean.Bot?

Бот позволял потенциальным избирателям “общаться” с Филлипсом и слушать его предвыборные сообщения. Первичный обмен был предварен предупреждением на экране, что бот не реален и является частью We Deserve Better. Теперь на веб-сайте появляется уведомление для посетителей: “Прости, DeanBot сейчас занят кампанией!”

Обязательства OpenAI перед выборами

Удаление бота является одной из первых публичных “лободы” после того, как OpenAI опубликовала новые обязательства перед избирательным сезоном, намекая на желание активно пресекать информацию о предвыборной кампании с использованием технологий OpenAI сразу после ее появления. 16 января компания представила полный план по работе с местом ИИ в президентских выборах этого года – то, что некоторые называют политической и технологической точкой кипения в борьбе с дезинформацией, созданной ИИ. OpenAI объявила о новых политиках использования и обязательствах по предоставлению интегритета выборов, включая:

  1. Более высокую прозрачность происхождения изображений и использованных инструментов, включая использование DALL-E.
  2. Обновление источников новостей ChatGPT и добавление атрибуции и ссылок в ответах.
  3. Партнерство с Национальной ассоциацией секретарей штатов (NASS) для внедрения точной информации о голосовании в некоторые Процедурные вопросы.

У OpenAI уже есть политика, запрещающая разработчикам создание приложений для политической агитации и лоббирования или создание чатботов, подражающих реальным людям, включая кандидатов и государственные организации. Компания также запрещает приложения, которые “отталкивают людей от участия в демократических процессах”, такие как неверная информация о голосовании или правильности участия.

Последствия ужесточения OpenAI

Предстоящие выборы вызывают еще больше тревоги по поводу роли технологий в обмене информацией и активизации блоков избирателей, и ИИ является неясной областью в руководствах многих социальных медиа. Многие эксперты и защитники (а также комиссия по связи) беспокоятся о возможности использования технологии голосового клонирования ИИ, в то время как другие сигнализируют о растущей эффективности дипфейков.

В декабре две некоммерческие организации опубликовали доклад, в котором говорится, что альтернативный ИИ-чатбот Microsoft Copilot не обеспечивал достоверную информацию о выборах и распространял дезинформацию. В ответ на это некоторые компании выбирают разработку более строгих политик для политической кампании, в частности, как это было объявлено Google и Meta в прошлом году. Однако полное удаление контента и последствия содержания, созданного ИИ, для уже уязвимых потребителей в условиях ухудшения медиаграмотности, по-прежнему остаются вопросом спорным.

Вопросы и ответы

В: Почему OpenAI запретила команду, стоящую за Dean.Bot? A: OpenAI указала на нарушение их правил использования API, конкретно запрещая политическую агитацию или подражание без согласия.

В: Кто создал Dean.Bot? A: Бот создан компанией Delphi, ИИ-стартапом, заказанным относительно новой супер PAC We Deserve Better, основанной Мэттом Крисилоффом и Джедом Сомером.

В: Какие обязательства OpenAI перед выборами? A: Обязательства OpenAI включают более высокую прозрачность происхождения изображений, обновление источников новостей ChatGPT с атрибуцией и ссылками, и партнерство с Национальной ассоциацией секретарей штатов (NASS) для предоставления точной информации о голосовании.

Взгляд в будущее

Ужесточение политики OpenAI в отношении политических чатботов является важным шагом в борьбе с дезинформацией, созданной ИИ, во время выборов. По мере развития технологий ИИ становится все более важным обеспечить точность и надежность предоставляемой избирателям информации. Борьба с дипфейками и голосовым клонированием ИИ будет продолжаться усиленно, с компаниями и регуляторами, внедряющими более строгие политики для защиты целостности демократических процессов.

Translate this html to Russian (keep the html code in the result and preserve the original information of the src attribute in the tag unchanged.):

🔗 Соответствующие ссылки: – Возвращение политической рекламы на X/Twitter вызывает важные вопросы для пользователейБесконечная прокрутка TikTok подчеркивает растущий кризис грамотности в медиа – Вот как OpenAI планирует бороться с дезинформацией на выборах в ChatGPT и Dall-E – Чатбот Microsoft Bing AI Copilot дает неверную информацию о выборахMeta раскрывает планы на всеобщие выборы 2024 года

По мере приближения выборов 2024 года влияние искусственного интеллекта на демократический процесс остается вопросом беспокойства. Будьте информированы, будьте бдительны и давайте обеспечим работу технологий в пользу демократии. Поделитесь своими мыслями и опасениями в комментариях ниже! 🔽🔽🔽


Не забудьте поделиться этой статьей с единомышленниками по технологии в социальных сетях! Давайте начнем разговоры и способствуем ответственному использованию искусственного интеллекта. 🚀🌐🤖