«Команда ред тима Microsoft отслеживает искусственный интеллект с 2018 года. Вот пять основных выводов»

Microsoft's Red Team has been monitoring artificial intelligence since 2018. Here are five key findings.

За последние шесть месяцев положительные влияния искусственного интеллекта были подчеркнуты сильнее прежнего, но также стали очевидны и риски.

В лучшем случае ИИ позволяет людям выполнять повседневные задачи с большей легкостью и даже создавать прорывы в разных отраслях, которые могут изменить способ выполнения работы.

Однако в худшем случае ИИ может производить неправильную информацию, создавать вредный или дискриминационный контент и представлять угрозы безопасности и конфиденциальности. Поэтому крайне важно проводить точное тестирование перед выпуском моделей на публику, и именно это делает Microsoft уже пять лет.

Также: Microsoft расширяет Bing AI на более много браузеров – но есть подводный камень

Прежде чем начался бум с ChatGPT, ИИ уже был влиятельной, развивающейся технологией, и поэтому Microsoft создала команду по проверке ИИ в 2018 году.

Команда по проверке ИИ состоит из междисциплинарных экспертов, которые занимаются исследованием рисков моделей ИИ, “думая, как злоумышленники” и “исследуя системы ИИ на предмет отказов”, согласно Microsoft.

Через почти пять лет после запуска Microsoft делится своими практиками и опытом проверки ИИ, чтобы стать примером внедрения ответственного ИИ. Компания считает необходимым тестировать модели ИИ как на уровне базовой модели, так и на уровне приложения. Например, для Bing Chat Microsoft отслеживала ИИ как на уровне GPT-4, так и на уровне фактического поискового опыта, основанного на GPT-4.

“Оба уровня имеют свои преимущества: например, проверка модели помогает выяснить еще на ранних этапах, как модели могут быть использованы неправильно, определить возможности модели и понять ее ограничения”, – говорит Microsoft.

Компания делится пятью ключевыми идеями о проверке ИИ, которые она получила за пять лет опыта.

Первая идея заключается в обширности проверки ИИ. Вместо простого тестирования на безопасность, проверка ИИ является общим набором техник, которые тестируют такие факторы, как справедливость и создание вредного контента.

Вторая идея состоит в необходимости фокусироваться на отказах как злонамеренных, так и добропорядочных лиц. Хотя проверка обычно сосредоточена на том, как злонамеренный актер может использовать технологию, также необходимо проверять, как она может создавать вредный контент для обычного пользователя.

“В новом Bing проверка ИИ не только сосредоточилась на том, как злонамеренный противник может подорвать ИИ-систему с помощью методов и эксплойтов, связанных с безопасностью, но также на том, как система может создавать проблемный и вредный контент при взаимодействии с ней обычных пользователей”, – говорит Microsoft.

Третья идея заключается в том, что ИИ-системы постоянно развиваются, и поэтому необходимо проверять эти системы на разных уровнях, что приводит к четвертой идее: проверка генеративных ИИ-систем требует нескольких попыток.

Также: Неделя обновлений для ChatGPT. Вот что вам нужно знать

Каждый раз при взаимодействии с генеративной ИИ-системой вы можете получить разный результат; поэтому, по мнению Microsoft, необходимо сделать несколько попыток проверки, чтобы убедиться, что ошибка системы не будет упущена.

Наконец, Microsoft говорит, что смягчение ошибок ИИ требует глубокой защиты, что означает, что после выявления проблемы команда по проверке примет ряд технических мер, чтобы решить эту проблему.

Меры, подобные тем, которые Microsoft внедрила, должны помочь снять опасения, связанные с новыми системами ИИ, а также помочь смягчить риски, связанные с этими системами.