США и еще 30 государств согласны установить ограничения для военного искусственного интеллекта

США и еще 30 стран согласны на установление ограничений для военного искусственного интеллекта

Когда политики, руководители технологических компаний и исследователи собрались в Великобритании на прошлой неделе, чтобы обсудить риски искусственного интеллекта, одна из главных опасностей заключалась в том, что алгоритмы могут однажды обратиться против своих человеческих хозяев. Более тихо группа продвинулась в контроле использования искусственного интеллекта для военных целей.

1 ноября в посольстве США в Лондоне вице-президент США Камала Харрис объявила о ряде инициатив в области искусственного интеллекта, и ее предупреждения о угрозе, которую искусственный интеллект представляет для прав человека и демократических ценностей, привлекли внимание людей. Но она также раскрыла декларацию, подписанную 31 страной, о введении ограничений на использование искусственного интеллекта в военных целях. Это обязательство гарантирует, что стороны будут использовать правовой анализ и обучение для обеспечения соблюдения международного права в военной сфере, осторожно и прозрачно развивать технологию, избегать непреднамеренных предубеждений в системах, использующих искусственный интеллект, и продолжать обсуждать, как технология может быть разработана и использована ответственно.

“Принципиальный подход к использованию искусственного интеллекта в военных целях должен включать тщательное рассмотрение рисков и выгод, а также минимизацию непреднамеренных предубеждений и происшествий”, – говорится в декларации. В ней также отмечается, что государства должны внедрить защитные механизмы в системы военного искусственного интеллекта, такие как возможность отключения или деактивации, когда система проявляет “непреднамеренное поведение”.

Декларация не имеет юридической силы, но это первое крупное соглашение между странами о добровольном введении ограничений на использование искусственного интеллекта в военных целях. В тот же день ООН объявила о новом резолюции Генеральной Ассамблеи, которая призывает провести всестороннее исследование смертельного автономного оружия и может стать основой для введения ограничений на такое оружие.

Лорен Кан, старший аналитик исследовательского центра по безопасности и новым технологиям (CSET) в Государственном университете Джорджтауна называет декларацию США “чрезвычайно значимой”. Она считает, что она может предложить практический путь к закреплению международного соглашения о нормах развития, испытаний и внедрения искусственного интеллекта в военных системах, предоставляя большую защиту и прозрачность в приложениях, связанных с системами оружия. “Я действительно верю, что это соглашения на здравом смысле, которым все бы согласились”, – говорит Кан.

Эта необязательная декларация была первоначально разработана США после конференции, на которой присутствовали представители разных стран и которая проходила в Гааге в феврале. США также просили другие страны согласиться с тем, что человеки остаются в контроле над ядерным оружием. В новой декларации говорится, что страны, стоящие за ней, соберутся в начале 2024 года, чтобы продолжить обсуждения.

Вице-президент Харрис объявила в своей речи в Лондоне, что декларация теперь подписана странами, сориентированными на США, включая Великобританию, Канаду, Австралию, Германию и Францию. 31 подписант не включает Китай и Россию, которые, вместе со США, считаются лидерами в разработке автономных систем оружия. Китай присоединился к США в подписании декларации о рисках, которые несет искусственный интеллект в рамках Саммита по безопасности искусственного интеллекта, координированного британским правительством.

Разговоры о военном искусственном интеллекте часто вызывают представление о оружии, запитанном искусственным интеллектом, способном самостоятельно решать, когда и как использовать смертельную силу. США и несколько других стран сопротивляются призывам к полному запрету такого оружия, но политика Пентагона заключается в том, что автономные системы должны позволять “командирам и операторам осуществлять соответствующий уровень человеческого суждения при применении силы”. Обсуждения вокруг этой проблемы в рамках Конвенции ООН о некоторых обычных оружиях, учрежденной в 1980 году для создания международных правил в отношении использования оружия, признанного слишком чрезмерным или произвольным, запали в застой.

Американская декларация, объявленная на прошлой неделе, не идет настолько далеко, чтобы искать запрет какого-либо конкретного использования искусственного интеллекта на поле боя. Вместо этого, она фокусируется на обеспечении использования искусственного интеллекта таким образом, чтобы гарантировать прозрачность и надежность. Это важно, говорит Кан, потому что военные силы пытаются использовать искусственный интеллект во множестве областей. Даже если технология будет ограничена и тщательно контролироваться, она все равно может иметь дестабилизирующие или опасные последствия.

Одна из опасностей заключается в том, что неисправная система искусственного интеллекта может совершить действие, которое вызовет эскалацию враждебностей. “Фокус на летальном автономном оружии важен”, – говорит Кан. “В то же время процесс застрял в этих обсуждениях, которые фокусируются исключительно на типе системы, которая еще не существует”.

Некоторые люди все еще работают над попыткой запретить летальные автономные оружия. В тот же день, когда Харрис объявил о новом заявлении о военном искусственном интеллекте, Первый комитет Генеральной Ассамблеи ООН, группа государств, занимающаяся разоружением и распространением оружия, одобрила новую резолюцию о летальных автономных оружиях.

В резолюции предлагается составить отчет о “гуманитарных, правовых, безопасностных, технологических и этических” проблемах, возникающих при использовании летальных автономных оружий, и привлечении международных и региональных организаций, Международного Комитета Красного Креста, гражданского общества, научного сообщества и промышленности. В заявлении ООН цитируется представитель Египта, который говорит: “алгоритм не должен полностью контролировать решения, связанные с убийством или нанесением вреда людям”, после голосования.

“Это волнующий, исторический момент”, – говорит Анна Хейр, руководитель программы по автономным системам оружия в Институте будущей жизни, негосударственной организации, борющейся за полный запрет на летальные автономные системы, нацеленные на людей. “Это большой шаг к заключению юридически обязательного документа, как требует Генеральный секретарь ООН, который должен состояться к 2026 году”.

Военные со всего мира давно интересуются искусственным интеллектом, но быстрое развертывание новых технологий на поле боя в Украине вызвало возобновленный интерес со стороны США и других стран. Пентагон экспериментирует с внедрением искусственного интеллекта в меньшие, более дешевые системы как способ увеличить свою способность обнаруживать угрозы и реагировать быстро.

“Системы, которые мы начинаем видеть в Украине, являются безпрецедентными – это технология, которую мы раньше не видели”, – говорит Хейр о широком распространении дронов в конфликте, включая некоторые с искусственным интеллектом для определения целей. “Это определенно игровая площадка для тестирования различных технологий”.

Пока ChatGPT, похоже, еще не был призван на военную службу, но недавнее процветание технологии чат-ботов кажется вызвало обновленный и более серьезный дебат о рисках военного искусственного интеллекта. “Политическое заявление и голосование в ООН означают довольно значительное изменение в дебатах, касающихся автономного оружия за последние несколько лет”, – говорит Пол Шарре, эксперт по автономному оружию и директор исследований Центра новой американской безопасности (CNAS), мыслительного учреждения в Вашингтоне, округ Колумбия.

Некоторые автономные оружия уже существуют, включая защитные системы на боевых кораблях, которые могут автоматически сбивать входящие ракеты. Но есть всего несколько сообщений о потенциальном использовании летальных систем, которые используют современный искусственный интеллект в вооруженных силах. Беспилотный летательный аппарат, задействованный во время гражданской войны в Ливии в 2020 году силами, поддерживаемыми правительством в Триполи, мог использовать смертельное насилие против солдат без человеческого контроля, в соответствии с докладом ООН 2021 года. Также есть некоторые сообщения о разработке летальных автономных дронов для украинских вооруженных сил, пытающихся оттолкнуть продолжающееся вторжение России. Россия входит в число стран, выступающих против новой резолюции ООН, считая, что соглашение подорвет существующую работу по автономии в рамках Конвенции о неконвенционном оружии.