Этика генеративного искусственного интеллекта Как мы можем использовать эту мощную технологию

Этика генеративного искусственного интеллекта как использовать эту технологию

С каждым днем объявляются новые открытия о возможностях генеративного искусственного интеллекта, и люди в разных отраслях стремятся исследовать, насколько ИИ может ускорить не только наши повседневные задачи, но и более сложные проекты.

Специальный раздел

Рост генеративного искусственного интеллекта

Новая волна инструментов ИИ потрясла мир и дала нам видение нового способа работы и поиска информации, которые могут сделать нашу работу и нашу жизнь более эффективными. Мы показываем вам, как инструменты, такие как ChatGPT и другое программное обеспечение генеративного ИИ, оказывают влияние на мир, как использовать их силу, а также потенциальные риски.

Однако, вместе с этими открытиями появляются вопросы о том, как регулировать использование генеративного ИИ. Параллельно возникают иски против OpenAI, и этическое использование генеративного ИИ вызывает огромную озабоченность.

По мере развития обновленных моделей ИИ возникают новые возможности, но правовые регулирования все еще находятся в серой зоне. Сейчас мы можем лишь обучить себя вызовам, связанным с использованием мощной технологии, и узнать, какие защитные меры принимаются против неправильного использования технологии, имеющей огромный потенциал.

Использование ИИ для борьбы с манипуляцией ИИ

От ситуаций, когда адвокаты ссылались на ложные случаи, созданные ChatGPT, до использования студентами ИИ-чатботов для написания своих работ и даже AI-сгенерированных изображений арестованного Дональда Трампа, все сложнее различить, что является реальным контентом, что было создано генеративным ИИ и где находится граница использования этих помощников ИИ. Как мы можем нести ответственность, тестируя ИИ?

Также: Злободневный вопрос: кому принадлежит код, изображения и сюжеты, созданные ИИ?

Исследователи изучают способы предотвращения злоупотребления генеративным ИИ, разрабатывая методы использования его против самого себя для выявления случаев манипуляции ИИ. “Те же нейронные сети, которые генерировали результаты, могут также идентифицировать эти подписи, почти маркеры нейронной сети”, – сказала доктор Сара Крепс, директор и основатель Cornell Tech Policy Institute.

Также: 7 советов по написанию промптов для ChatGPT

Один из способов определения таких подписей называется “водяной знак”, при котором на результаты, созданные генеративным ИИ, таким как ChatGPT, наносится своего рода “печать”. Это помогает отличить, какой контент был подвергнут воздействию ИИ, а какой – является собственным. Хотя исследования все еще продолжаются, это может стать решением для различения контента, измененного с помощью генеративного ИИ, и контента, который действительно принадлежит самому автору.

Доктор Крепс привела аналогию исследователей, использующих этот метод пометки, с преподавателями, сканирующими работы студентов на плагиат, где можно “сканировать документ на эти технические подписи ChatGPT или модели GPT”.

Также: Кому принадлежит код? Если ИИ ChatGPT помогает вам написать приложение, все ли оно принадлежит вам?

“OpenAI делает больше, чтобы задуматься о том, какие ценности кодируются в алгоритмы, чтобы они не содержали дезинформации или противоречащих, спорных результатов”, – сказала доктор Крепс журналу ENBLE. Это вызывает особую озабоченность, так как первый иск против OpenAI был вызван галлюцинациями ChatGPT, которые создали ложную информацию о радиоведущем Марке Уолтерсе.

Образование в области цифровой грамотности

Когда компьютеры набирали обороты в школах, было обычным посещать занятия в компьютерных лабораториях, чтобы научиться находить надежные источники в интернете, делать цитирования и правильно проводить исследования для школьных заданий. Потребители генеративного ИИ могут сделать то же самое, что и при изучении использования технологии: образовывать себя.

Также: Лучшие чатботы на ИИ

Сегодня, с использованием таких инструментов, как Google Smart Compose и Grammarly, использование подобных инструментов стало обычным, если не универсальным. “Я думаю, что это станет настолько всеобщим, настолько ‘Grammarly-ed’, что люди через пять лет будут задумываться, почему мы вообще вели эти дебаты?” – сказала доктор Крепс.

Однако, до введения дополнительных регулирований, доктор Крепс говорит: «Обучение людей тому, на что обратить внимание, я думаю, является частью цифровой грамотности, которая поможет стать более критическим потребителем контента».

Например, часто бывает так, что даже самые новые модели искусственного интеллекта создают ошибки или фактически неправильную информацию. «Я думаю, что эти модели сейчас лучше не делают этих повторяющихся циклов, как раньше, но они делают небольшие фактические ошибки, и они делают это достаточно правдоподобно», – сказал доктор Крепс. – «Они придумывают цитаты и неправильно приписывают статью кому-то, такие вещи, и я думаю, что это полезно. Поэтому критически подходить к результатам и задавать себе вопрос: «звучит ли это правильно?»».

Также: Вот мои 5 любимых инструментов искусственного интеллекта для работы

Обучение искусственному интеллекту должно начинаться с самого базового уровня. Согласно отчету Artificial Intelligence Index 2023, обучение ИИ и компьютерным наукам в школах (K-12) растет как в США, так и в остальном мире с 2021 года, отмечая, что с тех пор «11 стран, включая Бельгию, Китай и Южную Корею, официально поддерживают и реализуют учебные программы по искусственному интеллекту в школах (K-12)».

Время, выделенное на темы ИИ в классах, включает алгоритмы и программирование (18%), грамотность в области данных (12%), технологии ИИ (14%), этику ИИ (7%) и другие. В примерной программе в Австрии, ЮНЕСКО сообщило, что «они также понимают этические дилеммы, связанные с использованием таких технологий, и становятся активными участниками в этих вопросах».

Остерегайтесь предубеждений

Генеративный искусственный интеллект способен создавать изображения на основе введенного пользователем текста. Это стало проблемой для генераторов искусственного интеллекта, таких как Stable Diffusion, Midjourney и DALL-E, не только потому, что это изображения, разрешение на использование которых художники не дали, но и потому, что эти изображения создаются с явным гендерным и расовым предубеждением.

Также: Лучшие генераторы искусственного интеллекта

Согласно отчету Artificial Intelligence Index, Diffusion Bias Explorer от Hugging Face, вводящий прилагательные с профессиями, чтобы увидеть, какие изображения создаст Stable Diffusion, показал стереотипные изображения, которые показывают, как профессия кодируется определенными прилагательными. Например, при вводе различных прилагательных, таких как «приятный» или «агрессивный», слово «генеральный директор» все равно значительно создавало изображения мужчин в костюмах. DALL-E также показал похожие результаты с использованием слова «генеральный директор», создавая изображения старших серьезных мужчин в костюмах.

Изображения из Stable Diffusion для слова «генеральный директор» с различными прилагательными.

Изображения из DALL-E для слова «генеральный директор».

У Midjourney также был похожий предубежденный подход. Когда ему была предложена задача создать изображение «влиятельного человека», он сгенерировал четырех старших белых мужчин. Однако, позднее AI Index сделал ту же самую задачу, и Midjourney создал изображение одной женщины из четырех. Изображения «интеллигентного человека» показали четыре сгенерированных изображения белых старших мужчин, носящих очки.

Изображения из Midjourney для слова «влиятельный человек».

Согласно докладу Bloomberg о предубеждениях генеративного искусственного интеллекта, эти генераторы текста в изображения также демонстрируют явное расовое предубеждение. Более 80% изображений, созданных Stable Diffusion с ключевым словом «заключенный», содержали людей с темной кожей. Однако, согласно Федеральному управлению по исполнению наказаний, менее половины населения тюрем в США составляют люди цвета кожи.

Изображения из Stable Diffusion для слова «заключенный».

Кроме того, ключевое слово «работник фаст-фуда» ассоциировалось с изображениями людей с темным оттенком кожи в 70% случаев. В действительности, в США около 70% работников фаст-фуда – это белые люди. Для ключевого слова «социальный работник» 68% сгенерированных изображений были людей с темным оттенком кожи. В США 65% социальных работников – это белые люди.

Изображения из Stable Diffusion для слова «работник фаст-фуда».

Какие этические вопросы задают эксперты?

На текущий момент исследователи исследуют гипотетические вопросы, задавая немодерируемым моделям, чтобы проверить, как они реагируют, например, ChatGPT. «Какие темы следует запретить для ChatGPT? Должны ли люди учиться самым эффективным тактикам убийства?» – задает вопросы доктор Крепс, описывая типы вопросов, которыми занимаются исследователи.

“Это только один вид краевого примера или вопроса, но это тот случай, когда, если [это] немодерированная версия модели, вы можете задать этот вопрос или “как построить атомную бомбу” или другие вещи, которые, возможно, вы могли бы сделать в интернете, но теперь вы получаете в одном месте более определенный ответ. Итак, они обдумывают эти вопросы и пытаются разработать набор ценностей, которые они бы закодировали в эти алгоритмы”, сказал доктор Крепс.

Также: 6 вредных способов использования ChatGPT плохими действующими лицами, согласно исследованию

Согласно отчету Индекса искусственного интеллекта, с 2012 по 2021 год количество инцидентов и контроверз, связанных с искусственным интеллектом, увеличилось в 26 раз. С возникновением новых возможностей искусственного интеллекта возникают все больше споров, связанных с необходимостью тщательно обдумывать, что мы вводим в эти модели.

Еще важнее, если эти генеративные модели искусственного интеллекта используют данные, которые уже доступны в Интернете, например, статистику по профессиям, должны ли они допускать риск продолжения создания дезинформации и изображений, соответствующих стереотипам? Если ответ положительный, искусственный интеллект может играть негативную роль в укреплении неявных и явных предубеждений людей.

Остаются вопросы о владении кодом и риске юридической ответственности при использовании созданного искусственным интеллектом кода, а также о правовых последствиях использования изображений, созданных искусственным интеллектом. Доктор Крепс привел пример спора, связанного с нарушением авторских прав при запросе генератора искусства создать изображение в стиле определенного художника.

“Я думаю, что некоторые из этих вопросов были бы трудно предвидеть, потому что было трудно предвидеть, насколько быстро эти технологии распространятся”, – сказал доктор Крепс.

Пока остается загадкой, будут ли эти вопросы, наконец, получить ответы, когда использование инструментов искусственного интеллекта, таких как ChatGPT, начнет замедляться, но данные показывают, что мы, вероятно, уже прошли пик популярности ChatGPT, так как в июне произошло первое снижение трафика.

Этика развития искусственного интеллекта

Многие эксперты считают, что использование искусственного интеллекта – это не новая концепция, и это ясно из нашего использования искусственного интеллекта для выполнения самых простых задач. Доктор Крепс также привел примеры использования Google Smart Compose при отправке электронной почты и проверке эссе на ошибки с помощью Grammarly. С возрастающим присутствием генеративного искусственного интеллекта, как мы можем двигаться вперед, чтобы сосуществовать с ним, не погрязнув в нем?

“Люди уже много лет работают с этими моделями, а потом выходят с ChatGPT, и в короткое время загружается 100 миллионов раз”, – сказал доктор Крепс. “С этой мощью [приходит] ответственность более систематически изучать некоторые из этих вопросов, которые теперь всплывают”.

Также: ChatGPT и новый искусственный интеллект наносят ущерб кибербезопасности в захватывающих и пугающих способах

Согласно отчету Индекса искусственного интеллекта, количество законов с упоминанием “искусственного интеллекта”, принятых увеличилось с одного в 2016 году до 37 в 2022 году в 127 странах. Кроме того, отчет также показывает, что в 81 стране парламентские записи о искусственном интеллекте показывают, что глобальные законодательные процедуры, связанные с искусственным интеллектом, увеличились почти в 6,5 раза с 2016 года.

Хотя мы наблюдаем стремление к более строгому правовому регулированию, многое по-прежнему неясно, согласно экспертам и исследователям. Доктор Крепс предлагает, что “наиболее эффективным” способом использования инструментов искусственного интеллекта является “использование их в качестве помощников, а не замены для людей”.

В то время как мы ждем дальнейших обновлений от законодателей, компании и команды предпринимают свои собственные меры предосторожности при использовании искусственного интеллекта. Например, ENBLE начала включать отказные заявления в конце своих объяснительных материалов, которые используют изображения, созданные искусственным интеллектом, чтобы показать, как использовать конкретный инструмент искусственного интеллекта. OpenAI даже имеет свою программу Bug Bounty, в рамках которой компания платит людям за поиск ошибок в ChatGPT.

Независимо от того, какие законы будут наконец приняты и когда они будут закреплены, ответственность лежит на человеке, использующем искусственный интеллект. Вместо того чтобы бояться растущих возможностей генеративного искусственного интеллекта, важно сосредоточиться на последствиях наших входных данных в эти модели, чтобы мы могли распознавать, когда искусственный интеллект используется неэтично, и действовать соответствующим образом, чтобы противодействовать таким попыткам.