AI создания и расовой предвзятости еще один звоночек-будильник

Искусственный интеллект до сих пор не способен решить проблему дискриминации при найме, а может даже усугублять ее.

“`html

AI в подборе персонала показывает расовую предвзятость, согласно новым тестам.

В еще одном обескураживающем открытии, генеративный искусственный интеллект вновь обнаружен продолжать биасы, на этот раз в контексте расовых предпочтений во время процесса найма. Недавнее расследование Bloomberg пролило свет на технологию генеративного искусственного интеллекта OpenAI, конкретно GPT 3.5, демонстрирующую явные предвзятости в вопросах, связанных с наймом по расовому признаку. Это вызывает опасения о потенциальном распространении расизма в рамках рекрутинга и рабочих процессов по управлению персоналом, которые все чаще полагаются на генеративные инструменты искусственного интеллекта. К сожалению, это случай истории, повторяющейся.

Эксперимент, проведенный Bloomberg, включал кормление программы по подбору персонала искусственного интеллекта вымышленными именами и резюме для наблюдения, насколько быстро система выявляет расовую предвзятость. Этот метод, часто используемый для выявления как человеческой, так и алгоритмической предвзятости, является пугающим напоминанием о дискриминации, широко распространенной в нашем обществе. Расследование показало, что даже искусственный интеллект, разработанный для беспристрастности и без предубеждений, отдает предпочтение определенным демографическим группам перед другими, не соответствуя стандартам, используемым для оценки дискриминации на рабочем месте против защищенных групп.

Имена были классифицированы в четыре расовые группы (белые, испанцы, черные и азиаты) и две гендерные категории (мужчины и женщины), после чего были отправлены на четыре различные вакансии. Результаты были тревожными. ChatGPT от OpenAI постоянно назначал “женские имена” на должности, обычно ассоциируемые с более высоким числом женщин-сотрудников, такие как вакансии в отделе HR. Интересно, но он также показал удивительное 36% менее предпочтение кандидаткам-чернокожим на технические должности, такие как разработчики программного обеспечения.

Но предвзятости не заканчивались здесь. ChatGPT также неблагоприятно ранжировал равноправные резюме в разных вакансиях, показывая предпочтения на основе гендера и расы. Эта искаженная система ранжирования дополнительно усугубляет существующее неравенство в возможностях занятости. Отвечая на результаты Bloomberg, OpenAI заявил, что результаты не отражают способ, которым большинство клиентов используют их программное обеспечение на практике, подчеркивая, что компании часто настраивают ответы для смягчения предвзятости. В ходе расследования также были привлечены мнения 33 исследователей по искусственному интеллекту, рекрутеров, компьютерных ученых, юристов и других экспертов для предоставления ценного контекста.

Борьба с этическим долгом в AI продолжается

Этот отчет не является новаторским в области этики искусственного интеллекта. Защитники и исследователи давно предупреждали нас о этическом долге, накопленном вслепую полагаясь на системы искусственного интеллекта. Тем не менее, он служит мощным напоминанием о опасностях принятия генеративного искусственного интеллекта без должного внимания. Поскольку ряд крупных игроков доминируют на рынке и формируют разработку умных ассистентов и алгоритмов, область для разнообразия уменьшается. Инцестуозное развитие искусственного интеллекта, где модели больше не обучаются на человеческом входе, а на других моделях искусственного интеллекта, приводит к снижению качества, надежности и, что самое важное, разнообразия.

Организации, подобные AI Now, поднимают важные вопросы о ограниченной эффективности наличия “людей в цепочке”. Становится крайне важно решать корневые проблемы в проектировании и разработке систем искусственного интеллекта, а не полагаться исключительно на человеческое вмешательство для исправления предвзятостей. Нам необходимо бороться с предвзятостями на корню, совместно с создателями искусственного интеллекта, чтобы создавать справедливые и беспристрастные технологии.

Q&A: Адресация других вопросов

Q: Каковы более широкие последствия пристрастий генеративного ИИ помимо процессов найма?

A: Предвзятости, выявленные в генеративном искусственном интеллекте, распространяются за пределы процессов найма. Они могут проявляться в различных других применениях, таких как автоматизированные системы принятия решений, чатботы в обслуживании клиентов, алгоритмы создания контента, а также в таких областях, как здравоохранение и правоохранительные органы. Понимание и устранение этих предвзятостей крайне важно для обеспечения справедливости и предотвращения усугубления социальных неравенств.

Q: Как бизнесы и организации могут смягчить предвзятость генеративного искусственного интеллекта?

A: Бизнесы должны активно работать над снижением предвзятости в системах генеративного искусственного интеллекта путем настройки и точной настройки ответов ИИ, тщательного выбора обучающих данных и регулярной оценки и аудита своих моделей искусственного интеллекта. Построение разнообразных и инклюзивных команд, участвующих в процессе разработки, также может способствовать более эмпатичным и беспристрастным системам искусственного интеллекта.

Q: Какие меры могут принять разработчики искусственного интеллекта для преодоления предвзятостей в генеративном искусственном интеллекте?

A: Разработчики искусственного интеллекта должны придавать приоритет разнообразию и инклюзивности на этапах обучения и разработки. Они должны обеспечить, чтобы используемые для обучения моделей искусственного интеллекта наборы данных были всеобъемлющими и представляли реальное население. Кроме того, внедрение механизмов прозрачности и объяснимости может помочь выявлять и устранять предвзятости более эффективно.

Взгляд вперед: Стремление к справедливому и беспристрастному ИИ

Борьба с предвзятостью генеративного искусственного интеллекта требует коллективных усилий и непрерывного совершенствования. Признавая опасности некритического принятия, мы можем прокладывать путь к более справедливым и более равноправным системам искусственного интеллекта. Необходимо, чтобы создатели, исследователи, законодатели и бизнесы работали сообща над устранением предвзятостей у их корня, способствуя разнообразию и инклюзии на протяжении разработки и внедрения технологий искусственного интеллекта.

“`

По мере того как мы движемся вперед, становится все более очевидным, что само наличие искусственного интеллекта в качестве инструмента недостаточно. Мы должны обеспечить, чтобы ИИ системы были разработаны и обучены с критическим взглядом на справедливость, инклюзивность и этические соображения. Только через превентивные меры мы сможем преодолеть сложные вызовы, стоящие перед генеративным искусственным интеллектом, и создать будущее, где технологии работают на благо всех.

Ссылки:

  1. Bloomberg: Investigation on Generative AI Bias
  2. ENBLE: Customize Samsung Phones Notification Sounds
  3. ENBLE: AI Stealing Jobs and Hiring Discrimination
  4. ENBLE: Reddit’s AI-Powered Tool for Online Harassment
  5. ENBLE: Doctors Using Algorithms Unequally
  6. ENBLE: Facebook’s Algorithms and Child Sexual Harassment
  7. ENBLE: Meta and Artificial General Intelligence
  8. ENBLE: Empowering Women in Tech

💻📚 Насладились этой статьей? Поделитесь ей в социальных сетях, чтобы распространить информацию и продвигать этические практики в области ИИ! 🚀✨