Heidy Хлааф, директор по инженерной безопасности в компании Trail of Bits, обсуждает искусственный интеллект. #ENBLE

Хайди Хлааф, показанная в серии TechCrunch о женщинах в искусственном интеллекте, является директором по инженерии в фирме по кибербезопасности Trail of Bits.

“`html

Женщины в области искусственного интеллекта: интервью с Хейди Хлааф

Добро пожаловать на очередное издание нашего интервью с женщинами в области искусственного интеллекта! Сегодня у нас есть удовольствие пообщаться с Хейди Хлааф, директором по инженерии в компании Trail of Bits, занимающейся кибербезопасностью. Экспертиза Хейди заключается в оценке программного обеспечения и реализаций искусственного интеллекта в “критически важных” системах, таких как атомные электростанции и автономные транспортные средства.

🤖 Как начался путь Хейди Хлааф в области искусственного интеллекта

Страсть Хейди к робототехнике возникла с раннего возраста, и к моменту, когда ей было 15 лет, она начала программировать. Она видела робототехнику и искусственный интеллект как неразделимые, с потенциалом автоматизировать задачи в производстве и помогать пожилым людям, устраняя при этом опасный ручной труд. Интересно, что докторская степень Хейди получена в другой подобласти информатики. Она считает, что обладание крепким теоретическим фундаментом в информатике позволяет принимать обоснованные и информированные решения о пригодности искусственного интеллекта и его потенциальных подводных камнях.

🏆 На что Хейди Хлааф больше всего гордится

Как эксперт по инженерии безопасности, Хейди гордится использованием своего опыта для предоставления контекста и критики в развивающейся области безопасности искусственного интеллекта. Хотя безопасность искусственного интеллекта пытается адаптировать и цитировать хорошо установленные техники безопасности, отсутствие последовательных или намеренных определений компрометирует целостность этих техник. Исследования Хейди, такие как “Комплексная оценка рисков и обеспечение безопасности систем на основе искусственного интеллекта” и “Фреймворк анализа опасностей для синтеза кода больших языковых моделей”, развенчивают ложные представления о безопасности и оценках искусственного интеллекта. Она также предлагает конкретные шаги для преодоления разрыва в области безопасности искусственного интеллекта.

Хейди слишком хорошо знакома с вызовами быть женщиной в технологической индустрии, где мужчины преобладают, включая область искусственного интеллекта. Несмотря на замечательные достижения и вклад женщин в искусственный интеллект, они часто находят себя на заднем плане в разговорах, которые они закономерно определяют. Показатели удержания сотрудников и соотношение женщин, занимающих должности руководителей, остаются в значительной степени неизменными. Хейди считает, что признание этого отсутствия прогресса важно для понимания необходимых изменений. Вместо полного полагания на инициативы по разнообразию, равенству и включению (DEI), она считает, что создание крепкого личного сообщества обеспечивает ценную поддержку в обществе, где по-прежнему существуют предвзятость и скепсис к техническим женщинам.

🌟 Советы для женщин, которые вступают в область искусственного интеллекта

Совет Хейди женщинам, которые стремятся начать карьеру в области искусственного интеллекта, прост и мощен. Она настоятельно советует им не призывать к авторитету, а вместо этого найти направление работы, в которое они искренне верят, даже если это противоречит популярным мнениям. Так как лаборатории по искусственному интеллекту в настоящее время обладают значительной политической и экономической властью, существует тенденция принимать все утверждения лидеров мысли в области искусственного интеллекта как факт. Однако многие из этих утверждений часто содержат маркетинговый лексикон, который преувеличивает способности искусственного интеллекта в пользу прибыли. Хейди подчеркивает важность борьбы с преувеличенными утверждениями, которые лишены научного обоснования, особенно для начинающих женщин, которые могут испытывать синдром мошенничества и сомневаться в своей собственной научной целостности.

🔍 Актуальные вопросы, стоящие перед искусственным интеллектом сегодня

Поскольку искусственный интеллект продолжает развиваться, Хейди считает, что важно понимать, что искусственный интеллект сам по себе никогда не может быть единственным решением для наших проблем, будь то технологические или социальные. Вталкивание искусственного интеллекта в различные системы, не учитывая его эффективность в различных областях, представляет серьезные риски. Вместо этого искусственный интеллект должен дополнять человеческие способности, а не заменять их. К сожалению, неуделяется должного внимания угрозам и неудачам искусственного интеллекта, что может привести к конкретному вреду. Недавно система искусственного интеллекта под названием ShotSpotter ошибочно привела к тому, что офицер открыл огонь по ребёнку, подчеркивая потенциальные опасности, если искусственный интеллект используется неответственно.

🚨 Пользователи искусственного интеллекта: остерегайтесь его ненадёжности

Важно, чтобы пользователи искусственного интеллекта осознавали ненадёжность алгоритмов искусственного интеллекта. Алгоритмы искусственного интеллекта часто демонстрируют высокие уровни ошибок в приложениях, требующих точности, аккуратности и критичности безопасности. Эти алгоритмы также поддерживают человеческие предвзятости и дискриминацию, поскольку их выходы основаны на исторических данных и статистических выводах, а не на рассуждениях, фактических доказательствах или причинно-следственных связях. Признание этих ограничений важно для использования искусственного интеллекта ответственно и этично.

🛠️ Построение искусственного интеллекта ответственно

Для обеспечения ответственного развития искусственного интеллекта, Хейди предлагает создание проверяемых утверждений, которые защищают права и безопасность людей. Эти утверждения должны быть специфичны для регулирования, безопасности, этики или технических приложений и не должны быть опровергаемыми. Создание независимых регуляторов для оценки искусственного интеллекта по этим утверждениям критично для защиты интересов общественности и потребителей. Системы искусственного интеллекта не должны быть исключены из стандартных процессов аудита, хорошо установленных для обеспечения целостности другой продукции и систем.

“““html

💼 Investors and Responsible AI

Инвесторы играют важную роль в развитии и использовании AI ответственно. Вместо того, чтобы просто финансировать лаборатории искусственного интеллекта, инвесторы должны взаимодействовать и финансировать организации, которые разрабатывают и продвигают практику аудита для AI. Хотя в лабораториях AI могут быть собственные команды безопасности, независимые аудиторы и регуляторы необходимы для создания доверия общественности. Независимая оценка гарантирует точность, целостность и беспристрастную оценку систем искусственного интеллекта, что в конечном итоге приносит пользу обществу в целом.

🌐 References:


Благодарим вас за участие в этом интервью с Хайди Хлааф! Если вам понравилась эта статья, поделитесь ей с друзьями в социальных сетях и продолжайте обсуждение вокруг женщин в AI. Будьте на связи для дополнительных захватывающих интервью в нашем сериале Women in AI! 🎉💻🙌

“`