Исследователи в области искусственного интеллекта требуют независимой оценки безопасности искусственного интеллекта.

Более 200 выдающихся исследователей в области искусственного интеллекта призывают крупные технологические компании разрешить проверку безопасности своих продуктов с использованием ИИ

“`html

200 AI researchers are calling on OpenAI, Google, and Meta to permit safety evaluations.

AI researchers gather around a giant screen, their backs turned to viewer no faces visible, with warning symbols an ‘AI’ on the screen, cinematic

Смелым шагом более 200 ведущих исследователей искусственного интеллекта (ИИ) в мире подписали открытое письмо, требуя, чтобы крупные участники отрасли ИИ, такие как OpenAI, Meta и Google, позволили внешним экспертам провести независимую оценку и тестирование безопасности своих ИИ-моделей и систем. В то время как эти компании внедрили строгие правила, чтобы предотвратить злоупотребление технологиями ИИ, исследователи считают, что эти меры намеренно задушивают критические независимые исследования, направленные на выявление потенциальных рисков и уязвимостей.

Среди знаковых подписантов письма – Перси Лянг из университета Стэнфорда, журналист, лауреат Пулитцеровской премии Джулия Ангвин, Рене Диреста из Стэнфордского Интернет-наблюдательного центра, исследователь этики ИИ Деб Раджи и бывший правительственный советник Суреш Венкатасубраманиан.

О чем беспокоятся исследователи ИИ?

Исследователи ИИ опасаются, что политики компаний, внедренные ИИ-фирмами, применяются слишком широко, что приводит к “охлаждающему” эффекту на аудиторов. Эти политики запрещают определенные виды тестирования и запрещают нарушения авторских прав или создание вводящего в заблуждение контента. В результате аудиторы опасаются, что им могут забанить аккаунты или они могут столкнуться с юридическими последствиями, если они будут тестировать ИИ-модели без явного одобрения.

В письме призывается предостеречь генеративные ИИ-компании от следования по стопам платформ социальных медиа, которые эффективно запретили определенные виды исследований, направленных на то, чтобы они были привлекаемы к ответственности. Исследователи аргументируют, что вместо ограничительного подхода компании должны предоставить “безопасную гавань”, позволяющую ответственное аудитирование. Кроме того, они предлагают создание прямых каналов для сообщений о потенциальных уязвимостях, обнаруженных в ходе тестирования, вместо того чтобы полагаться на “подставные моменты” в социальных медиа.

Напряженность между ИИ-фирмами и внешними исследователями

Это открытое письмо появляется на фоне нарастающих напряженностей между ИИ-фирмами и внешними исследователями. Например, OpenAI заявила, что попытки The New York Times выявить авторские права в ChatGPT составляют “хакинг”. Мета, с другой стороны, обновила свои условия, угрожая аннулировать свою последнюю языковую модель, если она будет использоваться для нарушения интеллектуальной собственности.

Исследователи утверждают, что нынешняя экосистема надзора разрушена, поскольку значимыми кажутся лишь те моменты, когда аудиторы поймали компании в компрометирующих ситуациях. Письмо и предложение аудиторской политики направлены на то, чтобы способствовать более сотруднической обстановке для внешних исследователей, проводящих оценку безопасности и потенциальных рисков ИИ-систем, которые оказывают значительное влияние на миллионы потребителей.

Идеограмма

Вопросы и ответы

В: Какая польза будет от независимой оценки для ИИ-компаний?

О: Независимая оценка усилит прозрачность и доверие к ИИ-компаниям. Приглашая внешних экспертов оценить безопасность своих ИИ-моделей и систем, эти компании могут продемонстрировать свою обязанность обеспечить ответственное и этичное использование технологий ИИ. Это укрепляет доверие среди потребителей и широкой общественности.

В: Какие потенциальные риски может открыть независимая оценка?

О: Независимая оценка может обнаружить уязвимости и потенциальные предвзятости в ИИ-системах, выявить пробелы в системах безопасности и описать непредвиденные последствия, которые могут возникнуть в результате использования этих технологий. Это предоставляет возможность проактивно решать эти проблемы до того, как они станут серьезными.

В: Как компании могут найти баланс между защитой своих технологий ИИ и разрешением независимой оценки?

О: Компании могут найти баланс, внедряя четкие руководящие принципы и протоколы для независимой оценки. Они могут предоставить рамки, которые позволят аудиторам проводить тщательное тестирование, сохраняя при этом конфиденциальную информацию и интеллектуальную собственность. Это обеспечивает выявление потенциальных рисков без угрозы конкурентоспособности компании.

Анализ влияния и будущие развития

Требование независимой оценки безопасности ИИ поднимает важные вопросы о ответственности и обязанности ИИ-компаний. Это отражает растущее признание того, что системы ИИ не бессильны и требуют непрерывного мониторинга и оценки, чтобы гарантировать их соответствие социальным ценностям и этическим стандартам.

“““html

Впереди, скорее всего, компании по искусственному интеллекту столкнутся с растущим давлением делать свои технологии более прозрачными и проходить внешние оценки. Это может привести к созданию отраслевых стандартов и регулирований, управляющих оценкой и тестированием систем искусственного интеллекта. Кроме того, сотрудничество между компаниями по искусственному интеллекту и внешними исследователями может стать более распространенным для содействия прозрачности, ответственности и ответственной разработки технологий искусственного интеллекта.

Reference List

Спасибо за чтение! 🤖✨ Поделитесь своим мнением по этой важной теме в комментариях ниже и не забудьте поделиться этой статьей на своих любимых платформах социальных медиа, чтобы спровоцировать обсуждение среди ваших друзей и коллег. Давайте работать вместе, чтобы построить будущее, где искусственный интеллект будет безопасным и ответственным.

“`