Обеспечение безопасности выборов обязательство OpenAI в борьбе с дезинформацией на основе AI

Компания изложила свои усилия в недавней записи на блоге.

План OpenAI по борьбе с дезинформацией во время выборов на ChatGPT и Dall-E

Это захватывающее и нервное время, когда выборы президента 2024 года приближаются. С развитием искусственного интеллекта (ИИ) возникают серьезные опасения по поводу его влияния на избирательный процесс. OpenAI, одна из ведущих научно-исследовательских организаций в области ИИ, понимает серьезность ответственности, лежащей на ее плечах. Как сообщает The Washington Post, текущие выборы получили прозвище “Выборы ИИ”, а ИИ-производная дезинформация и манипуляции были названы существенными рисками в “Глобальном докладе о рисках 2024” Всемирного экономического форума.

В ответ на эти опасения OpenAI недавно опубликовала в блоге долгожданный пост, в котором изложила свои стратегии по защите целостности выборов и борьбе с вмешательством в выборы. В посте подробно рассматриваются такие проблемы, как вводящие в заблуждение дипфейки, огромное влияние операций влияния и чат-боты, выдающие себя за кандидатов. Давайте поподробнее рассмотрим инициативы OpenAI и то, как они планируют решить эти проблемы.

DALL-E Изображения: Власть отказаться и повысить прозрачность

OpenAI признает, что существующие инструменты могут помочь улучшить фактическую точность, сократить предвзятость и отклонять определенные запросы. Например, исследовательская модель OpenAI по генерации изображений, называемая DALL-E, теперь может отклонять запросы на создание изображений реальных людей, включая кандидатов. Однако конкретные детали процесса принятия решений DALL-E остаются конфиденциальными. Тем не менее, OpenAI намерена предоставить большую прозрачность относительно источников изображений и используемых для их создания инструментов. Через подход обработки изображений будут сохранены детали происхождения контента, что позволит обеспечить большую ответственность.

OpenAI также тестирует инструмент для определения, было ли изображение создано с помощью DALL·E, даже если оно было подвергнуто обычным изменениям. Эти улучшения средств распознавания изображений и прозрачности демонстрируют приверженность OpenAI обеспечению аутентичности визуальных материалов в политической среде.

Содержимое Chat GPT: прозрачность и поощрение демократического участия

Когда дело доходит до ChatGPT, OpenAI придерживается своих существующих политик использования. Платформа не разрешает создавать приложения для политической кампании, лоббирования или чат-ботов, выдающих себя за реальных людей, включая кандидатов или правительства. Кроме того, строго запрещено разрабатывать приложения, которые отговаривают людей от участия в демократических процессах или снижают их желание голосовать. OpenAI настроена сохранять целостность демократических систем и создавать среду, которая способствует честному взаимодействию.

Чтобы обеспечить пользователям большую прозрачность, ChatGPT скоро предложит мгновенную глобальную новостную сводку с правильными атрибуциями и ссылками. Кроме того, OpenAI партнерствует с Национальной ассоциацией секретарей штатов (NASS), чтобы улучшить доступ к официальной информации о голосовании. Сотрудничая с организациями, такими как NASS, и направляя пользователей на CanIVote.org, OpenAI гарантирует наличие необходимой информации, чтобы люди адекватно участвовали в процессе выборов.

Пользователи также получают возможность сообщать о потенциальных нарушениях при использовании платформы, функция, доступная в “новых GPT”. Этот активный подход мотивирует пользователей принимать активное участие в обеспечении целостности экосистемы искусственного интеллекта.

Вопросы и ответы: Решение ваших опасений

В: Существует ли риск того, что модели OpenAI будут использоваться для распространения дезинформации во время выборов?

О: OpenAI отчетливо осознает потенциальное неправомерное использование моделей ИИ во время выборов. Для борьбы с этим они внедрили различные меры в свои платформы. Отказываясь от запросов на создание изображений реальных людей и обнаруживая подделку изображений, OpenAI стремится минимизировать риск распространения дезинформации с помощью своих моделей.

В: Как OpenAI обеспечивает беспристрастность своих чат-ботов, особенно во время политической кампании?

О: У OpenAI есть строгие политики использования, запрещающие создание чат-ботов, претендующих на роль реальных людей, включая кандидатов или правительства. Запрещая приложения, которые препятствуют демократическому участию или ослабляют желание голосовать, OpenAI поддерживает принцип справедливости и равенства в политической сфере.

В: Могут ли языковые модели OpenAI предоставить достоверную информацию о процедурах голосования и местах проведения выборов?

О: OpenAI осознает важность достоверной информации во время выборов. Сотрудничая с организациями, такими как Национальная ассоциация секретарей штатов, и направляя пользователей на проверенные источники информации, такие как CanIVote.org, OpenAI улучшает доступ к официальной информации о голосовании, обеспечивая пользователей необходимыми руководствами для ответственного участия.

Вперед: Будущее ИИ в выборах

Внедрение ИИ в выборы предоставляет возможности и вызывает вызовы. В то время как OpenAI прилежно работает над защитой целостности избирательного процесса, другие организации и законодатели также должны внести свой вклад в создание безопасной и прозрачной экосистемы искусственного интеллекта.

В будущем мы можем ожидать еще большего прогресса в области AI-технологий, направленных на обеспечение точности и подлинности избирательной информации. Исследователи и разработчики будут продолжать усовершенствовать существующие инструменты и исследовать инновационные подходы к борьбе с дезинформацией. Совместными усилиями мы можем проложить путь к честным и надежным выборам в цифровую эпоху.

Ссылки: 1. OpenAI Moves to Shrink Regulatory Risk in EU Data Privacy 2. AI Election: The Washington Post 3. Global Risks Report 2024: World Economic Forum 4. OpenAI’s Policies for ChatGPT: Existing Usage Policies 5. Microsoft’s Bing AI Chatbot Copilot Gives Wrong Election Information 6. Artificial Intelligence and Elections: Enabling Safer Democratic Processes 7. OpenAI’s Plans to Help Protect Elections from AI-Generated Mischief 8. AI Aids Nation-State Hackers but Also Helps US Spies Find Them

Помните, что важно оставаться бдительными и различать информацию, связанную с выборами. Если вы хотите узнать больше о выявлении дезинформации во время выборов, ознакомьтесь с руководством ProPublica.

📢 Поделитесь этой статьей, чтобы распространить информацию о принципе OpenAI бороться с дезинформацией AI на выборах. Вместе мы можем гарантировать честный и надежный демократический процесс.