ИИ сделал это оправдания, изменения и дезинформация

Будьте в курсе постоянно меняющегося мира ИИ с нашей еженедельной подборкой событий.

В этой статье мы рассмотрим искусственный интеллект и его игру в виноватого, подсказки Apple AI и принятие AI поколением Z, вызывающее потерю рабочих мест.

В дополнение к “пёс съел мою домашнюю работу”, “я не видел электронное письмо” и “это честное недосмотр”, теперь можно добавить “AI сделал это” в список оправданий, которые люди могут использовать, чтобы не брать на себя ответственность за то, что они сделали или сказали. 🤷‍♀️

Например, недавно австралийская новостная станция извинилась после того, как показала измененное фото члена парламента, утверждая, что оно было отредактировано инструментом AI в Adobe Photoshop, согласно The Sydney Morning Herald. Однако это извинение и оправдание “AI сделал это” последовали только после того, как политик Джорджи Перселл выложил оригинальное фото рядом с отредактированным в социальных сетях. 🖼️

Неудача Photoshop 😱

Телеканал 9News объявил это “графической ошибкой” и вместо признания в человеческой ошибке винил Adobe. Главный редактор новостей Хью Нейлон заявил, что “автоматизация Photoshop создала изображение, не соответствующее нашему прежнему”. С другой стороны, Adobe отверг эту версию и заявил, что любые изменения, внесенные в изображение, требовали “вмешательства человека и утверждения”. В конечном итоге, новостная станция признала, что в решении действительно было “вмешательство человека”.

Хотя действительно, инструменты AI могут делать подобные настройки, как фильтры для селфи, это не оправдывает неудачу новостной станции в проверке изображения по оригиналу. Профессор Роб Николлс из Университета технологии Сиднея объяснил, что использование AI без строгого редакционного контроля повышает риск значительных ошибок, добавляя, что AI может воспроизводить существующие предубеждения. И неслучайно, что эти проблемы обычно имеют гендерный характер. 🚺

🔍 Q&A

Q: Как инструменты AI могут воспроизводить существующие предубеждения?

A: Инструменты AI учатся на данных, на которых они обучаются, и если эти данные содержат предубеждения, то AI может продолжать и усиливать эти предубеждения. Например, если набор данных в основном содержит изображения женщин в откровенных нарядах, инструмент AI может научиться подчеркивать откровенные особенности при редактировании изображений женщин. Это может привести к гендерным предубеждениям и неточностям.

Q: Какие меры можно предпринять для предотвращения усиления предубеждений AI?

A: Для предотвращения усиления предубеждений AI необходимо обеспечить разнообразие, представительность и лишенность предубеждений обучающих данных. Кроме того, разработка строгого редакционного контроля и руководящих принципов может помочь снизить риск появления предубежденных результатов посредством инструментов AI.

Взять вину на Deepfakes 🎭

Политики не редкие гости, обвиняющие Deepfakes в “оскорбительных фотографиях, видео и аудиозаписях”, которые могли запечатлеть их фактические слова или действия, согласно The Washington Post. Бывший президент Дональд Трамп даже отвергнул рекламу на Fox News с видео его хорошо документированных общественных промахов, заявив, что эти кадры были созданы AI. Однако множество независимых наблюдателей видели эти изображения в реальной жизни.

Эта тенденция поднимает вопрос о том, как мы можем отличать факты от вымысла, когда Deepfakes и манипуляции с помощью AI становятся обычными. Хани Фарид, профессор из Университета Калифорнии в Беркли, описал это как “ликующий дивиденд” AI. Он дает разумное отрицание тем, кто попался на противоправных словах или действиях, оправдываясь тем, что за это ответственен AI.

Это настоящее или AI? 🤔

С появлением AI-генерируемого аудио, видео и текста становится все сложнее отличить, что является реальным, а что создано AI. Хотя нету магического инструмента, который мгновенно узнает является ли контент сгенерированным AI, есть некоторые важные моменты, о которых стоит помнить.

Согласно неполитическому и некоммерческому проекту News Literacy Project, AI “сигнализирует о переменах в характере доказательств”. Это означает, что мы не должны автоматически доверять всему, что мы видим и слышим в новостях. Проверка источников, сопоставление с надежной информацией и разумное отношение к вирусным изображениям являются важными шагами в навигации в эпоху AI и дезинформации.

🔍 Q&A

Q: Как я могу проверить подлинность вирусных изображений или видео?

A: При обнаружении вирусных изображений или видео важно проверять их подлинность, обращаясь к надежным источникам. Выполните обратный поиск изображения, чтобы узнать, использовалось ли это изображение ранее или соответствует ли оно оригинальному источнику. Будьте осторожны в отношении неподтвержденного контента и подходите к нему с некоторой скептичностью, если вы не можете найти надежное подтверждение.

Q: Может ли технология искусственного интеллекта создавать полностью убедительные фальшивые изображения и видео?

A: В то время как технология искусственного интеллекта значительно продвинулась в создании реалистичного визуального контента, все еще существуют ограничения. Алгоритмы Deepfake могут создавать очень убедительные изображения и видео, но часто есть тонкие визуальные подсказки или артефакты, которые могут помочь их идентифицировать. Однако, по мере развития технологии, становится все сложнее обнаружить сгенерированные искусственным интеллектом подделки, что подчеркивает необходимость критического мышления и верификации.

ИИ на работе 💼

Искусственный интеллект – это не только источник споров и дезинформации, но и преобразование рабочего места. Согласно недавнему опросу Бостонской консалтинговой группы, 85% руководителей планируют инвестировать больше в ИИ и технологии генеративного ИИ в 2024 году. Эти руководители ожидают повышения производительности и сокращения затрат благодаря внедрению этих инструментов. Однако, все же остаются проблемы и заботы, которым нужно уделить внимание.

Руководители выразили недовольство прогрессом внедрения ИИ в их организациях, указывая на нехватку талантов, неясные планы и отсутствие общей стратегии ответственного использования как препятствия для успеха. Кроме того, опрос показал, что 46% рабочей силы нуждаются в повышении квалификации в следующие три года из-за генеративного ИИ. Тем не менее, только 6% компаний обучили более четверти своего персонала таким инструментам.

Внедрение принципов ответственного ИИ и фокусировка на управлении изменениями – это важные аспекты успешного внедрения ИИ. При этом важно осознанно и этично подходить к его внедрению.

🔍 Вопросы и ответы

Q: Как компании могут обеспечить ответственное внедрение ИИ?

A: Ответственное внедрение ИИ включает несколько ключевых аспектов. Компании должны приоритезировать прозрачность и ответственность в системах ИИ, убедившись, что они объяснимы и подчиняются этическим принципам. Кроме того, им следует инвестировать в программы постоянного обучения и повышения квалификации, чтобы подготовить рабочую силу к интеграции ИИ. Регулярные оценки и аудиты систем ИИ могут помочь выявить и устранить возможные предубеждения или нежелательные последствия.

Q: Какие есть примеры применения ИИ на рабочем месте?

A: ИИ используется в различных областях на рабочем месте. Он может автоматизировать повторяющиеся задачи, повышать качество принятия решений через анализ данных, улучшать обслуживание клиентов с помощью чат-ботов, оптимизировать цепи поставок и помогать в исследованиях и разработках. Инструменты ИИ, такие как ChatGPT, также используются для поддержки творческой деятельности и выполнения задач, таких как поиск фактов и исследований.

Будущее ИИ: от Deepfakes до ответственного использования 🚀

По мере развития технологии искусственного интеллекта его влияние на общество и рабочую силу, безусловно, будет увеличиваться. Решение проблем, связанных с Deepfakes и дезинформацией, будет критически важно для поддержания доверия и целостности в сфере медиа. Нахождение баланса между технологическими достижениями и ответственным использованием будет необходимо для преодоления возникающих проблем.

Недавнее обновление Bard – разговорного ИИ от Google, позволяющее пользователям создавать изображения на основе текстовых подсказок, демонстрирует продолжающееся развитие возможностей ИИ. Компании, такие как Apple, также намекают на свои эксперименты с ИИ, обещая захватывающие обновления в следующем году. В то же время регулирующие усилия, такие как предложение Федеральной комиссии связи по борьбе с ИИ-генерируемыми робоколлами, направлены на защиту потребителей от неправомерного использования технологии ИИ.

С помощью постоянных исследований и сотрудничества ИИ может быть использован в позитивных целях, таких как помощь в креативности, повышение производительности и улучшение пользовательских впечатлений. Исследование OpenAI по вредным биологическим оружиям и их принципам ответственного использования ИИ демонстрирует усилия отрасли по преодолению потенциальных рисков, связанных с развитием ИИ.

В заключение, все большее присутствие ИИ требует тщательной проверки информации, предъявления требований к организациям за использование ИИ и развития ответственного внедрения ИИ. Таким образом, мы можем использовать наилучший потенциал ИИ, защищаясь от его недостатков.

🔎 СсылкиThe Sydney Morning HeraldTechCrunchThe New York TimesThe Washington PostBusiness InsiderForrester ResearchENBLE (доклад Лизы Лэйси) – Предложение FCCCNNYouMailИсследование OpenAIОтчет Бостонской консалтинговой группыENBLE (доклад Лизы Лэйси) – Amazon БлогThe New York TimesИсследование EduBirdie</