Темная сторона технологии генеративного искусственного интеллекта предвзятость, поддельные изображения и дезинформация

Оставайтесь на шаг впереди постоянно изменяющейся области искусственного интеллекта с нашим еженедельным обзором последних достижений.

“`html

Приготовьтесь к большему количеству фальшивых ИИ-изображений, поскольку битвы между OpenAI-Маском и OpenAI-NYT продолжаются.

Введение

Технология генеративного ИИ революционизировала различные отрасли, позволяя создавать тексты, изображения, видео и даже программный код с возможностью естественного языка. Это означает, что любой может взаимодействовать с ИИ-чат-ботами, не обладая навыками программирования или инженерии. Однако у этой технологии есть темная сторона, включающая в себя предвзятости, галлюцинации и создание фальшивых изображений и видео. В этой статье мы рассмотрим некоторые недавние примеры негативных последствий генеративного ИИ и обсудим вызывающие их опасения.

Оскорбление оскорбительных изображений

Всего неделю спустя после того, как генератор текста в изображение Google Gemini получил критику за поставку оскорбительных и предвзятых изображений, сталкился с подобной критикой ИИ-генератор Copilot Designer от Microsoft. Инженер Microsoft Шейн Джонс выразил озабоченность ужасными и насильственными изображениями, созданными ИИ-инструментом, включая демонов, монстров, сексуализированные изображения женщин и употребление алкоголя и наркотиков несовершеннолетними. Эти изображения явно нарушили принципы ответственного искусственного интеллекта Microsoft. Несмотря на попытки Джонса решить проблемы, Microsoft проигнорировал его результаты. Это поднимает вопросы о этических практиках, следуемых ИИ-компаниями, и о потенциальном вреде, наносимом злоупотреблением технологией генеративного ИИ.

Фальшивые изображения и дезинформация

В другом случае сторонники бывшего президента Дональда Трампа создали фальшивые фотографии, изображающие тогдашнего президентского кандидата, окруженного фальшивыми чернокожими избирателями. Целью зафабрикованных изображений было ввести в заблуждение афроамериканцев, заставляя их голосовать за республиканцев. Это манипулирование изображениями подчеркивает более широкую проблему дезинформации и потенциал использования ИИ-сгенерированных изображений для значительной роли в распространении неправды во время выборов. Согласно отчету Центра по борьбе с цифровой ненавистью, инструменты работы с изображениями на ИИ способствуют дезинформации на выборах в 41% случаев, в том числе созданию изображений, поддерживающих ложные утверждения о кандидатах или избирательных махинациях. Это вызывает опасения относительно доверия к контенту, созданному с использованием технологии генеративного ИИ.

Байден призывает к запрету на маскировку голоса с помощью ИИ

В своем послании к нации президент Байден призвал к запрету на маскировку голоса с использованием ИИ и к принятию законодательства для использования потенциала ИИ с защитой общества от его потенциальных опасностей. Ранее мошенники использовали робозвонки с голосом Байдена, созданным с помощью ИИ, чтобы обмануть демократических избирателей во время первичных выборов в Нью-Гэмпшире. Возможности маскировки голоса вызывают опасения, однако существуют и потенциальные случаи использования, демонстрирующие положительные аспекты голосов, сгенерированных ИИ, как например, приложение Calm с озвучкой актера Джимми Стюарта для ночной истории. Нахождение правильного баланса между регулированием вредоносных приложений ИИ и разрешением полезных является крайне важным.

Anthropic’s “Человекоподобный” Чат-бот и Конкуренция

Компания Anthropic, базирующаяся в Сан-Франциско, выпустила Клода 3, конкурента ChatGPT от OpenAI и Gemini от Google. Anthropic утверждает, что его модели ИИ теперь обладают “человекоподобным пониманием” и улучшенной точностью и контекстным пониманием. Хотя эти чат-боты не являются истинным искусственным общим интеллектом и не обладают полным пониманием, подобные обновления Клода демонстрируют быстрый темп инноваций в области генеративного ИИ. Недавно OpenAI объявила о сотрудничестве с различными технологическими компаниями для создания, развертывания и использования ИИ ответственным образом, несмотря на судебный иск от Илона Маска, одного из ранних инвесторов OpenAI. Конкуренция и споры вокруг генеративного ИИ показывают, что в этой стремительно развивающейся области остается еще многое для исследования и решения.

Необходимость прозрачности в оценке ИИ

Группа из более чем 100 исследователей по ИИ подписала открытое письмо, подчеркивающее важность независимой оценки систем общего интеллекта. Они аргументируют, что компании по производству ИИ должны разрешать исследователям доступ к своим системам для проверки безопасности перед их выпуском на публику. В настоящее время ограничения независимых исследований создают охлаждающий эффект, так как аудиторы боятся быть запрещенными или столкнуться с судебными действиями за тестирование моделей ИИ без разрешения компаний. Исследователи подчеркивают необходимость прозрачности, ответственности и избегания препятствий в исследованиях, приводя примеры, где компании по производству ИИ изолировали внешних аудиторов от доступа к своим системам. Нахождение баланса между безопасностью и содействием независимым исследованиям в области генеративного ИИ остается вызовом.

Судебные иски по нарушениям авторских прав разделили пространство общего ИИ, с отзывами творцов контента, обвиняющих компании, такие как OpenAI и Microsoft, в использовании их работ без разрешения или компенсации. The New York Times подал иск против OpenAI и Microsoft, утверждая, что эти компании незаконно использовали миллионы его историй для обучения своих языковых моделей, конкурируя с медийными компаниями как надежный источник информации. Как Microsoft, так и OpenAI выдвинули доводы против иска, утверждая, что доктрина разумного использования защищает их использование авторского материала. Это продолжающееся юридическое противостояние подчеркивает важность определения границ использования данных в обучении систем генеративного ИИ.

“““html

Заключение

Технология генеративного искусственного интеллекта имеет огромный потенциал для трансформации различных областей, но при этом несет в себе риски и этические вопросы. Недавние события подчеркнули наличие предвзятостей, создание фальшивых изображений/видео, распространение дезинформации и судебные разбирательства по поводу прав на интеллектуальную собственность. Найти баланс между использованием мощи генеративного ИИ и смягчением его потенциальных рисков крайне важно. Обеспечение прозрачности, ответственности и ответственного использования ИИ будет ключевым по мере продвижения вперед в этой быстро развивающейся области.


Раздел вопросов и ответов

В: Каковы потенциальные последствия предвзятостей в генеративном ИИ? Предвзятость в генеративном ИИ может укреплять несправедливые стереотипы, укреплять дискриминацию и углублять общественные разрывы. Когда системы ИИ обучаются на предвзятых или непредставительных данных, они могут генерировать контент, отражающий эти предвзятости. Кроме того, предвзятость в системах ИИ может привести к дискриминационным процессам принятия решений в различных областях, таких как найм или утверждение займов. Решение и смягчение предвзятостей в генеративном ИИ является необходимым условием для создания справедливой и равноправной технологии.

В: Как можно использовать технологию генеративного ИИ в позитивных целях? Технология генеративного ИИ имеет положительные применения в областях, таких как создание контента, рассказы, виртуальные помощники и персонализация. Например, сгенерированный ИИ контент может помочь авторам, режиссерам и художникам в создании новых идей и вдохновений. Виртуальные помощники, работающие на основе генеративного ИИ, могут предоставлять персонализированные услуги, делая взаимодействия более эффективными и адаптированными к индивидуальным потребностям. Важно исследовать позитивный потенциал генеративного ИИ, с учетом этических соображений и ответственного использования.

В: Какие шаги могут быть предприняты для противодействия распространению дезинформации через генерируемый контент генеративным ИИ? Борьба с дезинформацией требует многоаспектного подхода, включающего технические, регулирующие и образовательные меры. Технические разработки могут сосредоточиться на создании систем ИИ, способных обнаруживать и выявлять потенциально ложный или вводящий в заблуждение контент, созданный генеративным ИИ. Регуляторные рамки могут быть внедрены для обеспечения прозрачности, ответственности и ответственного использования технологии генеративного ИИ. Обучение пользователей рисках и ограничениях генерируемого контента генеративным ИИ также может помочь им оценивать и проверять информацию критически.


Литература

  1. ИИ Чатбот Сбивается с Пути, Генерируя Оскорбительный Контент
  2. Gemini Промахи Google и Иск Маска к OpenAI
  3. NSA Покупает Интернет-Данные Американцев
  4. Принципы ИИ и Ответственность
  5. Фабрики Фальшивых Изображений: Противодействие Дезинформации с Помощью ИИ

“`