🤖 План Байдена по искусственному интеллекту сталкивается с бюджетными вызовами 💰😱

Возникают опасения, так как директивное агентство Джо Байдена, NIST, не имеет достаточных ресурсов для уменьшения рисков искусственного интеллекта - возможная зависимость от частных компаний, разрабатывающих технологии

План США по обеспечению безопасности искусственного интеллекта (ИИ) сталкивается с финансовыми ограничениями.

Введение

В октябре президент США Джо Байден представил свой амбициозный план по смягчению возможных рисков, связанных с искусственным интеллектом (ИИ). Однако этот комплексный план уже находится под угрозой срыва из-за бюджетных ограничений, с которыми сталкивается Национальный институт стандартов и технологий (NIST), ответственный за установление стандартов ИИ. Предложенный бюджет для NIST не соответствует требуемому объему работ до установленного срока – 26 июля 2024 года. Это вызывает опасения относительно тяжелой зависимости агентства от частных компаний, имеющих заинтересованность в формировании стандартов ИИ. В этой статье мы более подробно рассмотрим проблемы, с которыми сталкивается NIST, и потенциальные последствия недостаточного учета предвзятости и скрытых угроз в ИИ. 🤔

Практически невозможный срок выполнения ⏳

Эльхам Табасси, заместитель директора по новым технологиям в NIST, описала срок 26 июля 2024 года как “практически невозможный” для агентства. Этот жесткий график накладывает огромное давление на NIST в разработке стандартов для стресс-тестирования ИИ систем, выявления предвзятости, скрытых угроз и неправильного поведения. Однако текущий бюджет агентства, составляющий 1,6 миллиарда долларов на 2023 год, недостаточен для выполнения этой огромной задачи.

Опасения в Конгрессе

Некоторые члены Конгресса опасаются, что NIST будет вынужден сильно полагаться на экспертизу по ИИ от частных компаний. Эти компании, основываясь на своих собственных проектах по ИИ, могут иметь интерес в формировании стандартов в свою пользу. Это вызывает вопросы о прозрачности и возможности неправомерного влияния на разработку стандартов ИИ. 🕵️‍♀️

NIST против “ИИ-гигантов” 🥊

NIST, ответственный за установление стандартов от пищевых ингредиентов до атомных часов, уступает компаниям, таким как OpenAI, Google и Meta, по ресурсам. Каждый из этих технологических гигантов, скорее всего, потратил более 100 миллионов долларов на обучение мощных языковых моделей, которые лежат в основе приложений, таких как ChatGPT, Bard и Llama 2. Ограниченный бюджет NIST усложняет его независимое решение критической проблемы тестирования безопасности ИИ. 💸

Письмо Конгресса 📝

16 декабря шесть членов Конгресса подписали бипартитное открытое письмо, выразив беспокойство по поводу недостатка прозрачности в процессе принятия решений в NIST. Письмо подчеркивает срочность установления стандартов ИИ, что осложнено ранней стадией исследований по тестированию ИИ систем. В нем обращается внимание на “существенное расхождение мнений” между экспертами по ИИ относительно способов измерения и определения проблем безопасности в технологии ИИ. NIST получило ведущую роль в этой сфере, однако текущее состояние исследований по безопасности ИИ создает проблемы для агентства.

Защита прозрачности и необходимость большего участия 🧐

NIST признает обеспокоенность законодателей и предпринимает некоторые шаги для улучшения прозрачности. Они недавно опубликовали запрос на информацию, приглашая мнения внешних экспертов и компаний относительно стандартов оценки и редактирования моделей ИИ. Хотя такой шаг свидетельствует об обязательстве NIST к прозрачности, неизвестно, является ли он прямым ответом на высказанные опасения в Конгрессе. Увеличивающаяся секретность вокруг коммерческих моделей ИИ также затрудняет измерение для организаций, таких как NIST.

Мнения экспертов 🗣️

Румман Чоудхури, специалист по обработке данных и генеральный директор Parity Consulting, считает, что NIST, как неполитическое научное учреждение, наиболее подходит для преодоления шума и спекуляций вокруг рисков ИИ. Однако им требуется не только указания и пожелания, чтобы успешно выполнить свою миссию. Ясин Джернит, руководитель по машинному обучению и социальным вопросам в Hugging Face, указывает на значительную разницу в ресурсах между NIST и крупными технологическими компаниями, ответственными за разработку наиболее видимых ИИ систем.

Путь вперед 🛤️

Хотя опасения, связанные с бюджетными ограничениями NIST, основательны, важно признать, что указ Белого дома предоставляет полный план действий по безопасности искусственного интеллекта. Создание Института безопасности искусственного интеллекта и сотрудничество с союзными странами в использовании стандартов NIST являются важными шагами в продвижении ответственных глобальных технических стандартов для развития ИИ. Кроме того, объявление Великобританией о создании группы по безопасности ИИ с получением достаточного финансирования показывает международное стремление решить эту важную проблему. 🌍

Looking Ahead 🔍

Вызовы, с которыми сталкивается NIST при реализации стандартов искусственного интеллекта, показывают, что перед нами еще много работы. Очень важно продолжать исследования, тестирование и совершенствование систем искусственного интеллекта, чтобы обеспечить их безопасность и надежность. Сохранение баланса между прозрачностью, инновациями и избеганием потенциальных предрассудков крайне важно. По мере развития области искусственного интеллекта роль NIST в качестве научного органа станет предельно важной для управления рисками, связанными с ИИ. Необходимо, чтобы NIST получал необходимое финансирование и ресурсы для эффективного выполнения своей миссии. 🙌


🔗 Список литературы:TomTom and Microsoft запускают AI Driving AssistantExecutive Order Белого домаИзмерение доверия общественности к новым инструментам ИИЛучшие кулеры для процессоров для покупки при ограниченном бюджетеЕще один дизайнер Apple присоединяется к Джони Айву для работы над оборудованием в OpenAIКак печатать в формате PDF в WindowsУвеличение секретности вокруг коммерческих моделей искусственного интеллектаОткрытое письмо AISI Scientific Merit


🤝 Давайте свяжемся в социальных сетях! 🌐 Поделитесь своими мыслями и мнениями по этой важной теме. Думаете ли вы, что NIST сможет преодолеть финансовые вызовы и эффективно формировать стандарты искусственного интеллекта? Комментируйте ниже или присоединяйтесь к обсуждению на нашей странице в Facebook и Twitter. Не забудьте поделиться этой статьей с друзьями и коллегами, которые интересуются увлекательным миром искусственного интеллекта! 📢✨

🔥🔥🔥