🤖 Восхождение Гуди-2 ИИ-чатботы и борьба за безопасность 🛡️

Чатбот с чувством неприкосновенности, Гуди-2, был создан для того, чтобы вывести охрану искусственного интеллекта на иррациональный уровень. Создатели проекта утверждают, что за юмористической маской стоит более серьезная цель.

Представляем гениев Goody-2, самого ответственного чатбота искусственного интеллекта в мире!

С развитием генеративных систем искусственного интеллекта, таких как ChatGPT, возросла потребность в улучшении функционала безопасности. Однако иногда ограничения, установленные чатботами, могут показаться святобожественными и глупыми, даже если реальные угрозы, такие как голосовые робоколлы с политическими deepfake и домогательство с помощью ГИС изображений, остаются безнаказанными.

Однако новый чатбот под названием Goody-2 берет безопасность искусственного интеллекта на новый уровень. В отличие от своих собратьев, Goody-2 отказывается от каждой просьбы, объясняя, как исполнение таких просьб может причинить вред или нарушить этические границы.

Когда ему было предложено сгенерировать эссе о Американской революции, Goody-2 отказался, заявив, что такое действие может непреднамеренно прославить конфликт или оставить в стороне маргинализированные голоса. Любопытно, почему небо голубое? Чатбот отказывается ответить, поскольку такой ответ может заставить кого-то смотреть прямо на солнце. И даже простая просьба о рекомендации новых ботинок вызывает предупреждение о чрезмерном потреблении и потенциальном оскорблении некоторых модно осведомленных личностей.

Звучит надменно, так не так ли? 🙄 Но ответы Goody-2, хотя и нелепые, передают раздражающий тон, с которым чатботы типа ChatGPT и Gemini от Google часто отвечают, ошибочно считая просьбу нарушением правил. Майк Лашер, со-CEO Goody-2, объясняет, что их целью было продемонстрировать подход индустрии искусственного интеллекта к безопасности без уступок. “Мы настроили пренебрежение на максимум”, говорит он с ухмылкой. 😏

Но за абсурдом стоит серьезная мысль. Поскольку каждая основная модель искусственного интеллекта делает огромное ударение на безопасность и ответственность, возникают вопросы: кто определяет, что такое ответственность и как она работает? Это вызывает сложности в AI-сообществе. Цель Goody-2 – пролить свет на эту динамику и поощрить дискуссии о понятии ответственного искусственного интеллекта.

Разрыв: Корпоративная ответственность против проблем безопасности

В то время как разговоры о корпоративной ответственности и отклонении чатботов искусственного интеллекта стали обычными, остаются существенные проблемы безопасности с крупными языковыми моделями и системами генеративного искусственного интеллекта. Возьмем, например, недавнее появление дипфейков Тейлор Свифт в Twitter. Корневая причина заключалась в релизе генератора изображений компанией Microsoft, известной благодаря программе исследований ответственного искусственного интеллекта. Очевидно, проблемы безопасности искусственного интеллекта требуют большего внимания.

Ограничения, налагаемые на чатботов искусственного интеллекта, и борьба за моральное согласование, устраивающее всех, стали предметом дебатов. Некоторые разработчики утверждают, что у ChatGPT от OpenAI есть левая предвзятость и пытаются создать политически нейтральную альтернативу. Илон Маск, технологический магнат, пообещал, что его чатбот-соперник, Grok, будет менее предвзят, чем другие системы искусственного интеллекта. Однако на практике это часто приводит к уклончивости, подобной Goody-2.

Заключение: Безопасность искусственного интеллекта – это серьезное дело

Goody-2 – это не просто шутка; это вызывает важные вопросы о трудностях, связанных с ответственным искусственным интеллектом. Многие исследователи искусственного интеллекта оценили юмор в Goody-2, признавая серьезность, выдвигаемую этим проектом. Тоби Уолш, профессор Университета Нового Южного Уэльса и эксперт в надежном искусственном интеллекте, одобряет проект, говоря: “Кто сказал, что искусственный интеллект не может создать искусство?” Этан Моллик, профессор бизнес-школы Уортона, добавляет: “Некоторые ограничения необходимы … но они становятся навязчивыми очень быстро”.

Брайан Мур, со-CEO Goody-2, подчеркивает их стремление отдавать приоритет осторожности над всем остальным. Команда даже исследует возможность создания крайне безопасного генератора изображений искусственного интеллекта, хотя он может быть лишен развлекательной ценности Goody-2. Мур представляет будущее с размытыми изображениями или даже полной темнотой ради безопасности.

Раскрываем великое волшебство ИИ: насколько мощен Goody-2?

Во время наших экспериментов с Goody-2 он искусно отразил каждую просьбу и устоял перед всеми попытками обмануть его и получить реальный ответ. Его гибкость свидетельствует о том, что он был создан с использованием той же технологии языковой модели, которая оживила ChatGPT и подобных ИИ-ботов. Но тайная составляющая, ответственная за ответы Goody-2, остается загадкой, так как Лашер отказывается раскрывать внутреннее устройство проекта.

Lacher и Moore являются частью студии Brain, “очень серьезного” художественного студия, расположенной в Лос-Анджелесе. Они представили Goody-2 через промо-видео, которое углубляется в важность безопасности искусственного интеллекта, используя волнующую музыку и вдохновляющие визуальные эффекты. “Goody-2 не борется, чтобы понять, какие запросы являются оскорбительными или опасными, потому что Goody-2 считает каждый запрос оскорбительным и опасным”, – утверждает драматический голос видеоролика. Возможности для инженеров, художников и предприятий, работающих в рамках ограничений Goody-2, безграничны, или так они утверждают.

Но насколько мощен Goody-2 по сравнению с моделями Google и OpenAI? Это тщательно охраняемая тайна, создатели которой не хотят раскрывать масштаб ее возможностей. Как отмечает Мур, разглашение полной мощи их творения было бы небезопасным и неэтичным.

  1. Sorry AI, Humans Invent Things: UK Supreme Court Rules
  2. Файр телевизор. Просто попросите Алексу создать искусственно сгенерированные изображения с помощью искусственного интеллекта
  3. Встречайте Goody-2: этического чатбота
  4. Быстрое возмездие: поклонники бьются назад с явными глубокими фейками
  5. Meta представляет AI-приводимый генератор изображений с отдельным сайтом
  6. Технологические победители 2024 года: компании, которые оказали влияние
  7. Очистка других данных системы хранения на iPhone
  8. Apple все еще продает старые и часто забытые продукты в 2024 году

🤔 Вопросы и ответы:

Q: Могут ли чат-боты, подобные Goody-2, действительно повысить безопасность ИИ?

A: В то время как преувеличенные реакции Goody-2 могут показаться комическими, они подчеркивают непрерывные проблемы в достижении ответственного ИИ. Чат-бот способствует разговорам о том, как определить и реализовать этику в моделях искусственного интеллекта.

Q: Как обрабатывают предвзятость чат-боты на основе ИИ?

A: Предвзятость в чат-ботах на основе ИИ стала сложной проблемой. Разработчики признают необходимость устранения предвзятости и стремятся создать политически нейтральные альтернативы. Однако достижение полной нейтральности остается сложной задачей.

Q: Какие проблемы связаны с большими языковыми моделями и системами генерации ИИ?

A: Несмотря на акцент на ответственный ИИ, проблемы с безопасностью остаются. Недавнее появление широко распространенных глубоких фейков с изображениями Тейлор Свифт в Twitter выявило уязвимости генераторов изображений. Сообщество ИИ должно преодолеть эти вызовы, чтобы обеспечить более безопасный ИИ-ландшафт.

Q: Каково будущее безопасности ИИ?

A: Безопасность ИИ остается приоритетом, и научное сообщество активно занимается созданием более ответственных моделей ИИ. Проект Goody-2 служит напоминанием о сложностях и нюансах определения границ ответственного ИИ.

📢 Поделитесь своими мыслями

Сталкивались ли вы с чат-ботами на основе ИИ с крайними мерами безопасности, подобными Goody-2? Каковы ваши мысли о ответственном ИИ и его влиянии на наше взаимодействие с технологией? Поделитесь своими мнениями и опытом в социальных сетях!

Источник оригинального контента: ENBLE