Искусственный интеллект чат-боты вторгаются в местное правительство и заставляют всех нервничать

AI chatbots invade local government and make everyone nervous

Агентство по охране окружающей среды США заблокировало доступ своих сотрудников к ChatGPT, в то время как сотрудники Государственного департамента США в Гвинее использовали его для разработки речей и сообщений в социальных сетях.

Штат Мэн запретил сотрудникам исполнительной власти использовать генеративный искусственный интеллект в течение оставшейся части года из-за опасений за кибербезопасность штата. В соседнем Вермонт, государственные служащие используют его для изучения новых языков программирования и написания кода для внутреннего использования, сообщает Джозайя Рейш, директор искусственного интеллекта штата.

Город Сан-Хосе, Калифорния, составил 23 страницы руководств по генеративному искусственному интеллекту и требует от муниципальных служащих заполнять форму каждый раз, когда они используют такие инструменты, как ChatGPT, Bard или Midjourney. В округе Аламеда, который находится в часе езды на север от города Сан-Хосе, проводятся сессии, на которых обучают сотрудников правительства рискам генеративного искусственного интеллекта, таким как его склонность выдавать убедительную, но неточную информацию, но пока не видят необходимости в формальной политике.

“Нас больше интересует то, что можно делать, а не то, что нельзя”, – говорит Сибил Герни, заместитель главного информационного офицера округа Аламеда. Сотрудники округа “делают большую часть своей письменной работы с помощью ChatGPT”, – добавляет Герни, и они использовали Einstein GPT от Salesforce для имитации пользователей при тестировании ИТ-систем.

На каждом уровне правительства ищут способы использования генеративного искусственного интеллекта. Государственные и городские служащие считают, что технология может улучшить некоторые из самых раздражающих черт бюрократии, упростив рутинную документацию и улучшив возможность общественности получать и понимать плотный государственный материал. Однако правительства, подверженные строгим законам о прозрачности, выборам и чувству гражданской ответственности, также сталкиваются с рядом проблем, отличающихся от приватного сектора.

“Всем волнует ответственность, но в случае с правительством она возрастает до другого уровня”, – говорит Джим Лотер, временный главный технолог города Сиэтл, который в апреле опубликовал предварительные руководства по генеративному искусственному интеллекту для своих сотрудников. “Решения, которые принимает правительство, могут существенно влиять на людей… Мы обязаны быть справедливыми и ответственными перед нашей публикой в своих действиях и открытыми в методах, которые определяют принятие решений.”

Примером того, насколько тщательно изучают действия правительственных служащих, можно привести случай помощника суперинтенданта из Мейсон-Сити, Айова, который попал в национальное противостояние после использования ChatGPT в качестве первого шага при определении, какие книги должны быть удалены из библиотек района, поскольку они содержали описания половых актов. Удаление книг требовалось в соответствии с недавно принятым законом штата.

Такой уровень контроля над действиями правительственных должностных лиц, вероятно, будет продолжаться. В своих политиках по генеративному искусственному интеллекту города Сан-Хосе и Сиэтла и штата Вашингтон предупреждают сотрудников, что любая информация, введенная в качестве подсказки в инструмент генеративного искусственного интеллекта, автоматически становится предметом разглашения в соответствии с законами о публичных записях.

Эта информация также автоматически попадает в корпоративные базы данных, используемые для обучения инструментов генеративного искусственного интеллекта, и может быть возвращена другому человеку, использующему модель, обученную на том же наборе данных. Фактически, большое исследование Стэнфордского института искусственного интеллекта, опубликованное в ноябре прошлого года, показывает, что чем точнее большие языковые модели, тем больше вероятность того, что они будут выводить из своих обучающих наборов целые блоки контента.

Это особая проблема для организаций здравоохранения и правоохранительных агентств.

Лотер говорит, что сотрудники Сиэтла рассматривали возможность использования генеративного искусственного интеллекта для краткого изложения длинных расследовательских отчетов из Офиса полиции Сиэтла. В таких отчетах может быть информация, доступная публике, но все же чувствительная.

Сотрудники Верховного суда округа Марикопа в Аризоне используют инструменты генеративного искусственного интеллекта для написания внутреннего кода и создания шаблонов документов. Они еще не использовали его для общественных коммуникаций, но считают, что у него есть потенциал сделать юридические документы более понятными для непрофессионалов, говорит Эрон Джуди, глава отдела инноваций и искусственного интеллекта суда. Теоретически сотрудники могут вводить общедоступную информацию о судебном деле в инструмент генеративного искусственного интеллекта, чтобы создать пресс-релиз без нарушения политики суда, но, как говорит она, “они, вероятно, будут волноваться”.

“Вы используете гражданский ввод для обучения денежному двигателю частного лица, чтобы они могли зарабатывать больше денег”, – говорит Джуди. “Я не говорю, что это плохо, но мы все должны быть удовлетворены тем, чтобы в конце дня сказать: ‘Да, вот что мы делаем'”.

В соответствии с рекомендациями Сан-Хосе, использование генеративного искусственного интеллекта для создания документа для общественного потребления не является запрещенным, но считается “высоким риском” из-за потенциала технологии внести в документацию дезинформацию и из-за точности, с которой город общается. Например, большая языковая модель, попросившая написать пресс-релиз, может использовать слово “граждане” для описания жителей Сан-Хосе, но город использует только слово “резиденты” в своих коммуникациях, поскольку не все жители города являются гражданами США.

Компании, занимающиеся гражданскими технологиями, такие как Zencity, добавляют в свои линейки продуктов инструменты на основе генеративного искусственного интеллекта для написания пресс-релизов правительства, в то время как крупные технологические гиганты и крупные консалтинговые компании, включая Microsoft, Google, Deloitte и Accenture, предлагают различные продукты на основе генеративного искусственного интеллекта на федеральном уровне.

Первые правительственные политики в области генеративного искусственного интеллекта появились от городов и штатов, и авторы нескольких из этих политик рассказали ENBLE, что они стремятся учиться у других агентств и улучшать свои стандарты. Александра Рив Гивенс, президент и генеральный директор Центра демократии и технологии, говорит, что ситуация благоприятна для “четкого руководства” и “конкретных, подробных рекомендаций со стороны федерального правительства”.

Федеральное управление и бюджет планирует выпустить черновое руководство по использованию искусственного интеллекта федеральным правительством в этом летом.

Первая волна политик в области генеративного искусственного интеллекта, выпущенная городскими и штатовыми агентствами, является временными мерами, которые, по заявлению официальных лиц, будут оцениваться в течение следующих месяцев и дополняться. Все они запрещают сотрудникам использовать конфиденциальную и необщедоступную информацию в подсказках и требуют определенного уровня проверки фактов и рассмотрения работы, созданной с использованием искусственного интеллекта, но также есть и заметные различия.

Например, в руководстве Сан-Хосе, Сиэтла, Бостона и штата Вашингтон требуется, чтобы сотрудники раскрывали свое использование генеративного искусственного интеллекта в своей рабочей деятельности, в то время как в руководствах Канзаса этого требования нет.

Альберт Гехами, уполномоченный по вопросам конфиденциальности в Сан-Хосе, говорит, что правила в его городе и других будут существенно развиваться в ближайшие месяцы по мере того, как станут ясными сферы применения и публичные служащие узнают о различиях между генеративным искусственным интеллектом и уже широко распространенными технологиями.

“Когда вы работаете с Google, вы вводите что-то и получаете стену разных точек зрения, и мы уже 20 лет в основном учимся использовать эту ответственность”, – говорит Гехами. “Через 20 лет мы, вероятно, разберемся с генеративным искусственным интеллектом, но я не хочу, чтобы мы теряли время в течение 20 лет, чтобы выяснить это для города”.