Фальшивые изображения ИИ появляются в поиске Google | ENBLE

Ложные изображения искусственного интеллекта появляются в поисковой системе Google | ENBLE

Изображения, созданные ИИ, появляются в поиске Google.
Изображение использовано с разрешения правообладателя

В настоящее время, если ввести в поиск Google “Израэль Камакавивуле”, то вам не покажется одна из знаменитых обложек альбома певца или его фотография, на которой он исполняет одну из своих песен на своем культовом укулеле. Вместо этого, первым делом вы увидите изображение мужчины, сидящего на пляже с улыбкой на лице – но это не фотография самого человека, сделанная камерой. Это фальшивое фото, созданное искусственным интеллектом (ИИ). Фактически, если вы нажмете на это изображение, оно откроет для вас подразделение на Reddit (Midjourney subreddit), где впервые был опубликован этот набор изображений.

Я увидел это первоначально в посте от Этана Моллика на X (ранее известный как Twitter), профессора Уортонской школы, который изучает ИИ.

При ближайшем рассмотрении фотографии несложно увидеть все следы ИИ, оставленные на ней. Подделанный эффект глубины резкости применен неравномерно, ткань на его рубашке искажена, и, конечно же, на его левой руке отсутствует палец. Но ничего из этого не является удивительным. Несмотря на то, насколько хорошими стали изображения, созданные ИИ, за последний год, их все равно довольно легко обнаружить, если внимательно посмотреть.

Настоящая проблема, однако, заключается в том, что эти изображения появляются в качестве первого результата для известной и знаменитой личности без каких-либо водяных знаков или указаний на то, что они созданы ИИ. Google никогда не гарантировал аутентичность результатов своего поиска изображений, но что-то в этом вызывает озабоченность.

Теперь есть несколько возможных объяснений, почему это произошло в данном случае. Гавайский певец, обычно известный как Из, умер в 1997 году, а Google всегда стремится предоставлять пользователям самую актуальную информацию. Но учитывая, что с тех пор не произошло множества новых статей или обсуждений о Изе, несложно понять, почему алгоритм это зафиксировал. И хотя это не кажется особо важным для Иза – легко представить гораздо более проблематичные примеры.

Даже если мы не будем наблюдать массовое появление таких результатов в поисковой выдаче, это отличный пример того, почему Google должен устанавливать правила для этого. По крайней мере, кажется, что изображения, созданные ИИ, должны быть явно помечены каким-либо образом, прежде чем ситуация выйдет из-под контроля. По крайней мере, предоставьте нам возможность автоматически отфильтровывать изображения, созданные ИИ. Однако, учитывая интерес Google к созданию контента с помощью ИИ собственного производства, есть основания полагать, что он может стремиться позволить ИИ-созданному контенту проникнуть в результаты поиска, не явно помечая его.