Великобритания тихо отказывается от независимого совета по искусственному интеллекту, что настораживает технологический сектор

The UK quietly rejects an independent artificial intelligence council, alarming the tech sector.

Британское правительство тихо уволило независимое консультативное советское управление Центра по этике данных и инноваций (ЦЭДИ) – оно занималось продвижением ответственного внедрения технологий данных и искусственного интеллекта, особенно в общественном секторе.

Веб-страница совета была официально закрыта 9 сентября, но информация об этом была опубликована только вчера. Новости Recorded Future (первые, кто об этом сообщил) сообщили, что правительство обновило страницу таким образом, чтобы она не отправляла электронные оповещения тем, кто подписан на эту тему.

Предыстория

Консультативное советское управление ЦЭДИ было назначено в июне 2018 года. Его задачей было “анализировать и прогнозировать пробелы в области управления, согласовывать и излагать лучшие практики для руководства этичным и инновационным использованием данных и консультировать правительство по необходимости принятия конкретных политических или регулирующих мер.”

С момента своего запуска центр предлагал организациям как частного, так и общественного сектора руководство по инновационным технологиям на основе данных и искусственного интеллекта в этическом и рисковоминимизирующем подходе. Например, в январе 2023 года был опубликован стандарт прозрачности алгоритма, а в июне был представлен портфель техник обеспечения надежности искусственного интеллекта.

Однако, как анонимно рассказали бывшие члены совета новостям Recorded Future, отношение правительства к организации со временем изменилось после смены четырех премьер-министров и семи министров по делам государства с момента запуска совета.

Бывший старший должностной лицо ЦЭДИ объяснил, что не было политической воли включить работу центра в общественный сектор. Стандарт прозрачности алгоритма не был широко принят и “не был продвинут в белой книге по искусственному интеллекту”, – добавил он.

Предпочтение “фронтовым” проблемам искусственного интеллекта

Подход Риши Сунака к управлению искусственным интеллектом сильно сфокусирован на смягчении существенных рисков этой технологии после множества предупреждений от технологических компаний и академии.

В ответ на это, в Апреле Великобритания запустила свою специализированную рабочую группу по искусственному интеллекту, посвященную не только укреплению лидерства страны в этой области, но и надежному внедрению “фронтовых” моделей искусственного интеллекта, “систем, которые могут представлять значительные риски для общественной безопасности и глобальной безопасности”. В отличие от этого, работа центра сосредоточена на фактическом, повседневном использовании данных и искусственного интеллекта.

“Существенные риски, похоже, являются текущим фокусом, по крайней мере, в кабинете премьер-министра”, – рассказал бывший член консультативного совета ЦЭДИ ComputerWeekly.com. “Можно сказать, что легко сосредоточиться на будущих ‘существенных’ рисках, так как это позволяет избежать рассмотрения деталей того, что происходит сейчас, и предпринять меры”.

Беспокойство в технологическом секторе Великобритании

В ответ на новости, основатели технологических компаний по всей Великобритании выразили свои опасения, высказав беспокойство о “прозрачности и доверии к правительству” и требуя “новой эпохи ответственности”.

“[Это] еще один пример того, что у правительства просто нет последовательной стратегии относительно данных и искусственного интеллекта, и также у него нет сильной заинтересованности заинтересованных сторон в этой области”, – сказала Натали Крэмп, генеральный директор компании Profusion, занимающейся решениями в области данных.

“Когда мы ставим этот шаг в контексте отсутствия завершения замены GDPR через семь лет после объявления об его отмене, текущих проблем с Законом об онлайн-безопасности и отсутствия введения широкомасштабного регулирования искусственного интеллекта, это рисует картину правительства, которое, кажется, не имеет стратегии в отношении регулирования и развития инноваций”.

Крэмп надеется, что предстоящий AI Safety Summit Великобритании принесет плодотворные результаты в отношении практик искусственного интеллекта, но вопрос о том, как правительство собирается продолжать работу по этике данных без консультативного совета, остается открытым.