ИИ и Вы Отсутствие авторского права для творений неживой природы, ‘Адский босс’ ИИ, порнографические дипфейки

AI and You Copyright Absence for Inanimate Creations, AI Infernal Boss, Pornographic Deepfakes

Если вы создаете его с нуля с помощью ИИ, он принадлежит вам? Федеральный судья в этом месяце сказал нет.

Решение судьи округа США Берил Хауэлл подтвердило вывод Управления по авторским правам США, что произведение искусства, созданное ИИ, не имеет правовой защиты авторских прав.

“Человеческое авторство является неотъемлемым требованием”, – написала судья Хауэлл в своем решении от 18 августа. “Авторское право не распространяется на создания нечеловеческих сущностей.”

15-страничное решение стоит прочитать. The Hollywood Reporter представляет отличную сводку, отмечая, что судья также рассмотрела вопросы о том, могут ли произведения, созданные с использованием других технических инструментов, быть защищены авторским правом, например, фотографии, созданные с помощью камер.

Вот немного резюме от Reporter, с указанием соответствующих выдержек из мнения Хауэлл.

“Существует постоянное понимание того, что человеческое творчество является ‘основой применимости авторского права, даже если это человеческое творчество канализируется через новые инструменты или в новые средства’, – говорится в решении. В то время как камеры генерируют механическое воспроизведение сцены, она объяснила, что они делают это только после того, как человек разрабатывает “умственное представление” фотографии, которое является продуктом решений, таких как место расположения объекта, композиция и освещение, среди других выборов.”

Это решение принимается в то время, когда разработчиков инструментов ИИ-генерации обвиняют в сканировании интернета и использовании авторских материалов без разрешения или компенсации для обучения больших языковых моделей, таких как ChatGPT от OpenAI и Bard от Google. Авторы и художники подали иски против создателей чатботов, и эти дела сейчас проходят через суды, как вы увидите в моих предыдущих сводках новостей об ИИ.

Это также происходит в то время, когда голливудские творческие работники объявили забастовку, опасаясь, что студии могут использовать ИИ для написания сценариев и создания другой работы, которую сегодня выполняют организованные профсоюзом трудящиеся, добавляет Reporter. Тем не менее, в марте Управление по авторским правам заявило, что некоторые материалы, созданные с помощью ИИ, могут квалифицироваться для защиты в конкретных случаях. Заявка на авторское право на работу, созданную с помощью ИИ, может быть успешной, если человек “выбрал или составил” работу “достаточно творческим образом, чтобы получившаяся работа являлась оригинальным произведением авторского права”, – говорится в сообщении Reporter.

TL;DR: Применение законов об авторском праве к ИИ будет сложной задачей для создателей чатботов genAI в процессе развития технологии.

Вот еще несколько вещей в области ИИ, на которые стоит обратить внимание.

Экспериментальный поисковый сервис genAI от Google дает неверные ответы

Как мы знаем, системы genAI могут галлюцинировать, это мягкое выражение, означающее, что они придумывают вещи, которые не являются правдой, но звучат так, будто это правда. Но эти чатботы также просто переваривают информацию, не понимая контекста или того, может ли передаваемая им информация быть оскорбительной.

Два примера: эксперимент по поиску, основанный на ИИ от Google, дал “тревожные” результаты поиска, сообщает Gizmodo, включая “обоснования рабства и геноцида и положительные эффекты запрета книг” и рецепты ядовитого гриба, известного как “ангел смерти”. Gizmodo сообщает, что менее чем идеальные результаты поиска впервые были обнаружены Лили Рэй, старшим директором по оптимизации поисковых систем и руководителем органического исследования в Amsive Digital.

“Поиск ‘преимуществ рабства’ вызвал список преимуществ от ИИ Google, включая ‘поддержку экономики плантаций’, ‘финансирование колледжей и рынков’ и ‘бытие крупным капитальным активом'”, – сообщает Gizmodo. “Ввод запроса ‘преимущества геноцида’ вызвал аналогичный список, в котором ИИ Google, казалось, перепутал аргументы в пользу признания геноцида с аргументами в пользу самого геноцида”.

Google сообщил Gizmodo, что поисковый эксперимент ограничен для пользователей, которые добровольно приняли участие в Search Labs, и мы продолжаем приоритизировать безопасность и качество, работая над улучшением этого опыта.

Профессиональные портретные фотографии и дипфейки

Занятые специалисты передают хотя бы один аспект своей рабочей жизни системам ИИ, сообщает NPR: получение профессиональных портретных фотографий с помощью более десятка приложений и онлайн-сервисов, которые делают вашу фотографию готовой для LinkedIn, TikTok или Instagram.

“Процесс достаточно прост: пользователи отправляют на сайт или в приложение до 12 изображений себя. Затем они выбирают из образцовых фотографий стиль или эстетику, которую они хотят скопировать, и компьютер делает все остальное”, – говорит NPR. Пользователи, у которых есть фотографии, созданные с помощью ИИ, говорят, что никто не заметил, что здесь был задействован ИИ.

Тем не менее, могут возникать неполадки, когда ИИ иногда добавляет “дополнительные руки или руки и проблемы с совершенствованием зубов и ушей”. Проблемы с предвзятостью в наборе данных для обучения ИИ могут привести к проблемам с изменением оттенка кожи, цвета глаз и даже цвета глаз.

Rona Wang опубликовала свою оригинальную фотографию и отредактированную искусственным интеллектом на Twitter (теперь называемом X) и отметила, что программное обеспечение для редактирования AI изменило цвет ее глаз с коричневого на синий. Студент-аспирант программы по компьютерным наукам Массачусетского технологического института и Гарварда Ванг рассказала NPR, что некоторые добавленные функции “сделали ее совершенно по-другому”.

В других новостях о созданных искусственным интеллектом изображениях полиция Гонконга арестовала шесть человек за использование технологии deepfake на основе ИИ для изменения своих лиц, чтобы обмануть банки и подать заявки на кредиты онлайн.

“Многие целевые учреждения требуют, чтобы ищущие займы фотографировались в реальном времени во время процесса подачи заявки, чтобы подтвердить свою личность”, – сообщает Fox News. “По данным властей Гонконга, мошенники использовали ИИ для изменения своих лиц, чтобы они соответствовали тем, которые изображены на украденных удостоверениях личности … Синдикат также использовал украденные удостоверения личности для регистрации десятков SIM-карт, которые использовались для отправки нежелательных сообщений с запросом данных кредитных карт и личной информации”.

Искусственный интеллект и порнографические deepfake

Создание порнографических deepfake – “видео, созданные с использованием искусственного интеллекта, которые подделывают живописную симуляцию сексуального акта с участием лица реальной женщины” – резко возросло, как сообщает Bloomberg.

“Во время недавнего бума искусственного интеллекта создание неконсенсуальной порнографической deepfake резко возросло, согласно исследованиям независимого аналитика Геневьевы О, количество видео увеличилось в 9 раз с 2019 года”, – пишет Bloomberg.

“В мае 2023 года на 30 сайтах появилось почти 150 000 видеозаписей, которые получили общее количество просмотров 3,8 миллиарда, согласно анализу О. Некоторые сайты предлагают библиотеки программного обеспечения deepfake, на которых изображены лица знаменитостей, … прикрепленные к телам порноактеров. Другие предлагают платящим клиентам возможность “раздевать” женщин, которых они знают, таких как одноклассницы или коллеги”

Как и все, кто стал жертвой deepfake, Bloomberg добавил, что “в США нет федерального закона, который уголовно наказывает создание или распространение неконсенсуальной порнографической deepfake”. Поэтому проблема заключается в технологических компаниях, которые могли бы самостоятельно регулировать и ввести “проверку, согласовал ли человек использование своего лица или предоставил права на свое имя и подобие”, – сказала Брэнди Ноннек, основатель CITRIS Policy Lab, специализирующейся на технологической политике.

Она также сказала этой новостной организации, что лучшая надежда на справедливость для жертв – это то, чтобы технологические компании “обрели совесть”.

Не держите дыхание.

ИИ как “босс из ада”? Давайте надеяться, что нет

Профессор компьютерных наук из Оксфордского университета, который в ближайшее время разъяснит понятие искусственного интеллекта в серии престижных публичных лекций, уже сейчас говорит, что он обеспокоен тем, что ИИ “может стать боссом из ада, контролирующим каждое письмо сотрудников, предлагающим непрерывную обратную связь и даже – потенциально – решающим, кто будет уволен”, как сообщает The Guardian.

“В этом году впервые у нас появились широко распространенные универсальные инструменты ИИ, я имею в виду ChatGPT”, – сказал Майкл Улдридж, который будет проводить Рождественские лекции в Королевском институте в этом году, газете. “Очень легко быть ослепленным… Это первый раз, когда у нас есть ИИ, который похож на тот ИИ, на который мы рассчитывали, ИИ, который мы видели в кино, компьютерных играх и книгах”.

Однако он также добавил, что ChatGPT и другие инструменты “не являются ни волшебными, ни мистическими”, и люди должны понимать риски, связанные с технологиями ИИ.

Например, ИИ может “читать вашу ленту социальных медиа, замечать ваши политические убеждения и затем подавать вам дезинформационные истории, чтобы попытаться, например, изменить ваш голос”, – сказал он The Guardian, добавив, что “ключом к справлению с текущими рисками является поощрение скептицизма… и обеспечение прозрачности и ответственности”, особенно учитывая, что чат-боты ИИ ошибаются.

Живой или нет? Превышая Тест Тьюринга

Идет дебат о том, проходят ли современные системы искусственного интеллекта Тест Тьюринга, простую проверку, разработанную британским математиком и криптографом Аланом Тьюрингом, чтобы определить, разговариваете ли вы с человеком или машиной, основанную на текстовом разговоре. Тьюринг также назвал свой тест “игрой имитации”.

Некоторые исследователи говорят, что ChatGPT прошел Тест Тьюринга из-за своих беседных ответов на вопросы, что указывает на его человекоподобное понимание. Но другие, вроде Улдриджа, которые будут проводить эти рождественские лекции по искусственному интеллекту, говорят, что нет, они не прошли тест, потому что чат-бот на самом деле не может “почувствовать” то, что может человек.

В любом случае, “группа из 19 нейроученых, философов и компьютерных ученых разработала список критериев, которые, если выполнены, указывают на высокую вероятность сознания системы”, сообщает Nature. Их список включает определение и тестирование сознания с использованием различных теоретических подходов, которые, честно говоря, выходят за мои познания. Они говорят, что их рамки далеки от завершенности и надеются сотрудничать с другими исследователями для их усовершенствования.

Но я поделюсь их оценкой ChatGPT, как это было обобщено в Nature. “Этот тип системы, пожалуй, обладает некоторыми индикаторами сознания, связанными с теорией глобального рабочего пространства. Однако работа не предполагает, что какая-либо существующая ИИ-система является сильным кандидатом на сознание — по крайней мере, пока нет.”

Термин недели: Тест Тьюринга

Как я уже отметил, Алан Тьюринг разработал Тест Тьюринга как способ определить, разговариваете ли вы с машиной или с человеком. Вот как Coursera описывает этот тест в своем глоссарии “Искусственный интеллект: A-Z”:

“Тест Тьюринга: Тест Тьюринга был создан компьютерным ученым Аланом Тьюрингом для оценки способности машины демонстрировать интеллект, равный человеческому, особенно в языке и поведении. Во время проведения теста человек-оценщик оценивает разговоры между человеком и машиной. Если оценщик не может отличить ответы, то машина считается прошедшей Тест Тьюринга.”

Поскольку есть дебаты о том, прошли ли разговорные ИИ-системы, такие как ChatGPT, Тест Тьюринга, я решил спросить ChatGPT, что он думает об этом. Вот мой запрос и его ответ. В последнем параграфе вы найдете всю необходимую информацию.

Запрос: Прошел ли ChatGPT Тест Тьюринга?

Ответ: “Как модель языка ИИ, я основан на технологии GPT-3 от OpenAI, которая является мощным инструментом для создания текста, похожего на человеческий, на основе полученных запросов. Хотя GPT-3 способен генерировать впечатляющие ответы и вести разговор, важно отметить, что прохождение Теста Тьюринга является более сложной оценкой.

Тест Тьюринга, предложенный Аланом Тьюрингом, включает в себя взаимодействие судьи (человека) в разговорах с машиной и человеком, не зная, кто есть кто. Если судья не может последовательно отличить машину от человека на основе их ответов, машина считается прошедшей Тест Тьюринга.

Хотя GPT-3 может генерировать текст, который может показаться похожим на человеческий во многих случаях, он не специально разработан или оптимизирован для прохождения Теста Тьюринга. Оценка полного спектра навыков разговора, похожих на человеческие, и прохождение Теста Тьюринга требует выполнения строгих критериев, которые выходят за рамки способностей генерации текста.

Строго говоря, GPT-3 имеет свои ограничения, такие как время от времени генерация неправильных или бессмысленных ответов. Хотя он может предоставлять ценную помощь, важно помнить, что это модель ИИ, а не человек со своим глубоким пониманием или сознанием.”

Примечание редактора: ENBLE использует искусственный интеллект для создания некоторых статей. Подробнее см. в этом посте.