В этой статье мы изучаем инструмент Gemini от Google для обнаружения неприятных изображений, исследуем пересечение венчурных капиталистов и искусственного интеллекта, а также раскрываем мистическое очарование так называемого «изобилия» искусственного

Оставайтесь в курсе постоянно меняющегося мира искусственного интеллекта с нашим еженедельным обзором новостей.

“`html

Соревнование в мире генеративных AI чат-ботов

Соревнование между компаниями, такими как Anthropic, OpenAI, Google, Microsoft, Meta и Perplexity, достигло новых высот в их гонке за победу над пользователями своими генеративными AI чат-ботами. Однако недавние инциденты, связанные с Gemini от Google (ранее известным как Bard), напомнили нам, что gen AI все еще находится в стадии развития. Для разработчиков крайне важно проводить правильное тестирование качества перед выпуском этих инструментов в открытый доступ.

Гемини, крупная языковая модель Google, недавно столкнулся с критикой за генерацию исторических изображений, изображающих людей цвета, носивших немецкую военную форму времен Второй мировой войны. Это вызвало опасения относительно потенциала технологии искусственного интеллекта способствовать распространению дезинформации и поддерживать вредные стереотипы.

Пользователи также критиковали Гемини за отказ в генерации изображений белых пар, утверждая, что он не мог изображать определенные этнические группы и цвет кожи, чтобы избежать поддержки стереотипов и предвзятости. Эти инциденты подчеркивают необходимость тщательного тестирования и совершенствования возможностей генерации изображений в системах искусственного интеллекта.

В ответ на критику Google извинился и признал совершенные Гемини ошибки. Компания признала, что ее процесс настройки не учел определенные случаи, которые не должны были показывать широкий круг людей. Кроме того, со временем модель стала чрезмерно осторожной и отказывалась отвечать на некоторые запросы, даже если они были безобидными.

Google извлек ценные уроки из этих просчетов и планирует улучшить возможности генерации изображений благодаря обширному тестированию. В промежутке пользователям рекомендуется относиться к результатам Гемини осторожно и полагаться на поиск Google для точной и надежной информации, особенно относительно недавних новостей и текущих событий.

Хотя эти инциденты подчеркивают сложности и ограничения генеративных AI чат-ботов, они также поднимают важные вопросы о будущем технологии искусственного интеллекта. Как мы можем найти баланс между использованием творческого потенциала AI и обеспечением того, чтобы он не заменял человеческое творчество и опыт? Как AI может быть использован во благо потребителей, избегая этических проблем и потенциального увольнения? Эти вопросы требуют тщательного обдумывания по мере того, как мы продолжаем исследовать возможности генеративного искусственного интеллекта.

Потенциал искусственного интеллекта для эры изобилия

В условиях дебатов вокруг влияния AI на различные аспекты общества, венчурная капиталистическая фирма A16z предлагает свежий взгляд на потенциальные выгоды технологии искусственного интеллекта. В серии эссе, коллективно известных как “The Abundance Agenda”, A16z делятся идеями о том, как генеративный AI может революционизировать потребительские впечатления и открывать новые возможности.

Фирма предсказывает “Эру изобилия”, способствуемую генеративным AI, с глубокими выгодами для потребителей. Это включает в себя возможность открыть латентное творчество, так как инструменты AI позволяют людям создавать искусство независимо от их творческих способностей. Продуктивность увеличится, а административная нагрузка будет минимизирована, обеспечивая более значимую и эффективную работу. Инструменты на основе AI также могут способствовать новым связям, принадлежности и возможностям личностного развития.

Хотя A16z рисует положительную картины потенциала AI, люди, такие как Джеффри Каценберг, сооснователь студии Dreamworks Animation, высказывают опасения относительно увольнений в индустрии развлечений. Каценберг предсказывает, что художники-аниматоры и профессионалы будут серьезно подвержены влиянию технологии AI, и до 90% художников-аниматоров будут заменены в ближайшем будущем.

Противоречивые взгляды на воздействие AI отражают текущий дебаты относительно его потенциальных плюсов и минусов. Важно найти баланс и исследовать способы, которые позволят AI давать силу людям, сохраняя необходимость человеческого творчества и опыта.

Фокус Департамента Юстиции США на искусственном интеллекте в правовой системе

Министерство юстиции (DOJ) Соединенных Штатов признало необходимость не отставать от быстро развивающихся научных и технологических достижений, назначив своего первого научного и технического советника и главного офицера по искусственному интеллекту, Джонатана Майера. Это назначение отражает стремление DOJ выполнять свою миссию поддержания верховенства права, обеспечения общественной безопасности и защиты гражданских прав.

DOJ уже использовал AI различными способами, например, отслеживание источника незаконных наркотиков, анализ сведений, представленных в ФБР, и организация доказательств, связанных с расследованиями. Однако DOJ также сталкивается с вызовом минимизации потенциальных угроз, создаваемых слабо регулируемой и быстро расширяющейся технологией AI, при этом используя ее преимущества.

Это назначение приходит в то время, когда регуляторы по всему миру исследуют способы внедрения мер безопасности и регулирования в области использования AI. Президент Джо Байден подписал указ об использовании AI в октябре 2023 года, сигнализируя о намерении правительства уделить внимание этическим и юридическим аспектам технологии искусственного интеллекта. Подобно этому сенатор штата Калифорния Скотт Уинер представил законопроект, который направлен на создание офиса, посвященного оценке регулирования AI внутри штата.

Поскольку AI продолжает формировать различные отрасли, включая юридический сектор, важно найти баланс между использованием его потенциальных преимуществ и смягчением рисков.

“““html

В мире чат-ботов и юридических документов история имеет свойство повторяться. В прошлом году адвокаты в Техасе были оштрафованы за использование ChatGPT для написания документов, которые включали вымышленные случаи. Несмотря на извлеченные уроки, адвокат в Массачусетсе недавно подал три юридических меморандума, в которых были указаны вымышленные случаи. Эти инциденты подчеркивают важность дважды проверять юридические аргументы и обеспечивать точность цитируемых прецедентов.

Еще один случай включал лицо, выдвигающее требования в Миссури, которое ссылалось на 22 вымышленных случая в апелляционном меморандуме. Эти случаи имели очевидно выдуманные названия, поднимая красные флаги относительно их достоверности. Лицо утверждало, что получило цитаты от нанятого через интернет адвоката, но судья прекратил дело и приказал лицу заплатить крупные судебные издержки.

Эти инциденты служат напоминанием тому, что юридическим профессионалам необходимо проявлять осторожность при полагании на информацию, сгенерированную ИИ, и всегда проверять достоверность источников, на которые они ссылаются.

The New York Times Explores the Potential of AI Tools

The New York Times (NYT) известен своему стремлению к журналистическому совершенству и недавно принял потенциал технологии искусственного интеллекта. Организация , по сообщениям, разрабатывает инструмент, который будет использовать ИИ для тестирования новых решений по таргетированной рекламе, позволяя рекламодателям лучше понимать свою целевую аудиторию. Этот шаг следует за наймом NYT лидера новостной комнаты ИИ и активным исследованием ген AI-инструментов для рекламных продуктов.

Ожидается, что внедрение этого инструмента на основе ИИ приведет к предоставлению рекомендаций по рекламе на основе целей кампании и содержанию сообщения. Этот инструмент позволит таргетировать узкую аудиторию на основе их интересов, амбиций и мнений, создавая новые возможности для рекламодателей связаться с потребителями на более глубоком уровне. Поскольку NYT сталкивается с снижением объемов рекламы, этот инструмент на основе ИИ обещает создать новые возможности для рекламы.

Помимо исследования ИИ в рекламе, NYT активно участвует в судебном процессе по авторским правам против OpenAI, материнской компании ChatGPT. Организация также разрабатывает синтетические голоса на основе ИИ, с планами выпустить продукт, который позволит пользователям слушать написанные истории NYT.

В ходе экспериментов с ИИ NYT продолжает придавать приоритет точности и ответственности, нацеливаясь на достижение баланса между технологиями ИИ и ценностями традиционной журналистики.

Термин недели по ИИ: Человек в процессе

В мире систем искусственного интеллекта концепция “Человек в процессе” подчеркивает важность участия человека в эффективном использовании технологий ИИ. Она предполагает сознательное включение человеческого участия наряду с интеллектуальной автоматизацией, обеспечивая обратную связь от людей и гарантируя смысловое взаимодействие между людьми и системами ИИ.

Различные определения предоставляют различные точки зрения на то, что означает “Человек в процессе”. По мнению Института ИИ, ориентированного на человека Стэнфордского университета, подход фокусируется на интеграции полезного и значимого взаимодействия человека в системы ИИ. Salesforce.com определяет это как активный контроль вывода ИИ и предоставление прямой обратной связи модели. Telus International описывает это как комбинацию контролируемого машинного обучения и активного обучения, стремясь создать непрерывный обратный связанный цикл, улучшающий производительность алгоритма.

Идея “Человек в процессе” заключается в использовании эффективности автоматизации ИИ, обеспечивая вовлечение человеческого опыта для обеспечения точности, этических соображений и достижения оптимальных результатов.

🎬 Посмотрите видео ниже, чтобы узнать больше о влиянии генеративных чат-ботов на ИИ:

Не забудьте поставить лайк и подписаться! Поделитесь своими мыслями в комментариях ниже. 💬

Ссылки:

“`