ИИ и вы Белый дом устанавливает рамки для ИИ, выборочная дезинформация подогревается ИИ

ИИ и вы Белый дом устанавливает правила для развития ИИ, специально распространяемая дезинформация поддерживается ИИ

На прошлой неделе был опубликован очень долгий текст, которого мы так ожидали из Белого Дома, где оговорены основные положения по разработке и использованию искусственного интеллекта, содержащиеся в 111-страничном поручении президента под названием “Безопасное, надежное и доверительное развитие и использование искусственного интеллекта”. Президент Джо Байден и его администрация заявляют, что цель заключается в установлении рамок, устанавливающих “новые стандарты безопасности и защиты искусственного интеллекта, защищающие конфиденциальность американцев, продвигающие равенство и гражданские права, защищающие интересы потребителей и работников, поощряющие инновации и конкуренцию, продвигающие американское лидерство по всему миру.”

А вот краткая информация о поручении, которая описывает его основные моменты, на случай, если вам неудобно просматривать всё содержание поручения. Но вот пять основных выводов:

Тестирование безопасности и защиты перед выпуском инструментов искусственного интеллекта: Возникает много споров о том, должна ли была компания OpenAI проделать больше подготовительной работы, прежде чем выпустить в мир свой революционный и потенциально уникальный инструмент ChatGPT год назад, из-за возможностей и рисков, связанных с генеративным чат-ботом на базе искусственного интеллекта. Теперь разработчикам искусственного интеллекта потребуется “делиться результатами тестирования безопасности” и другой важной информацией с правительством Соединенных Штатов.

“Компании, разрабатывающие фундаментальные модели, представляющие серьезные угрозы национальной безопасности, национальной экономической безопасности или общественному здоровью, должны уведомить федеральное правительство о процессе обучения модели и поделиться результатами всех тестов безопасности, проводимых независимой командой.” Под “тестами безопасности независимой команды” подразумевается работа специально созданной группы, направленной на проверку системы искусственного интеллекта с целью выявления уязвимостей безопасности.

Углубляясь в требования тестирования, Национальному институту стандартов и технологии поручено разработать “строгие стандарты для обширного тестирования независимой команды с целью обеспечения безопасности перед публичным релизом.” NIST также поможет разработать инструменты и тесты, чтобы убедиться, что системы искусственного интеллекта являются безопасными, надежными и доверительными.

Защита от потенциально вредных с помощью искусственного интеллекта созданных биологических материалов: Агентства, финансирующие “проекты в области жизнедеятельности”, будут обязаны установить стандарты, чтобы предотвратить злонамеренное использование искусственного интеллекта для создания опасных биологических материалов. Вот еще интересные новости об искусственном интеллекте.

Прозрачность: Для защиты американцев от мошенничества и обмана, в Министерстве торговли поручено разработать руководство по установлению стандартов и лучших практик в области “обнаружения искусственного контента и аутентификации официального контента.” Это включает, в частности, пометку искусственно созданного контента водяными знаками и открытыми объявлениями. “Доверие имеет значение”, – сказал Байден в пресс-конференции о поручении. “У каждого есть право знать, когда слышат аудио или смотрят видео, созданное или измененное искусственным интеллектом.”

Равенство и гражданские права в сфере жилища и за ее пределами: Правительство стремится “предоставить ясные рекомендации арендодателям, федеральным программам пособий и федеральным поставщикам услуг, чтобы не допускать использования алгоритмов искусственного интеллекта для усугубления дискриминации”.

Работа и стандарты труда: США заявляют, что разработают “принципы и лучшие практики для смягчения вреда и максимизации преимуществ искусственного интеллекта в отношении работников путем решения вопросов замещения рабочих мест; трудовых стандартов; равенства, здоровья и безопасности на рабочем месте; и сбора данных… Эти принципы и лучшие практики помогут работникам, обеспечивая руководство для предотвращения неоправданного уменьшения оплаты труда, несправедливого рассмотрения заявок на работу или ограничения прав работников на организацию.”

В поручении есть еще много интересного, включая продвижение инноваций и конкуренции путем инвестирования в исследования искусственного интеллекта и предоставления ресурсов для “коммерциализации открытий” для малых разработчиков и предпринимателей.

Большинство экспертов по искусственному интеллекту, отраслевых групп и компаний похвалили поручение как важный шаг вперед и отметили его внимание к справедливости, конфиденциальности и тестированию перед запуском новых инструментов искусственного интеллекта в массы.  (Для тех, кто интересуется техническими подробностями, отметим, что Axios отметила, что “правила тестирования применяются к моделям искусственного интеллекта, требующим вычислительной мощности, превышающей 10 в степени 26 целых или десятичных операций. Это означает, что почти все текущие услуги искусственного интеллекта будут исключены.”)

Однако наблюдатели рынка также заметили, что порядка недостаточно. Например, нет никаких указаний относительно авторских прав – это будет решать суд, а администрация не потребовала, чтобы производители этих больших моделей языка (LLM) делились информацией о источниках своих обучающих данных и размерах своих моделей.

Это был не единственный значимый шаг государства для контроля над ИИ. В Лондоне Великобритания организовала саммит по безопасности ИИ, в котором приняли участие представители 28 правительств, включая США, Китай и Европейский союз. Они подписали Блечлискую декларацию — мероприятие прошло в Блечли-Парке, где во время Второй мировой войны работали шифровальщики — заявив, что лучший способ подготовиться к будущему, усиленному искусственным интеллектом, заключается в «международном сотрудничестве».

Декларация нацелена на то, чтобы разобраться, как фронтовой ИИ — самая передовая и новейшая технология искусственного интеллекта — может повлиять на нашу повседневную жизнь, в том числе на жилище, работу, транспорт, образование, здравоохранение, доступность и правосудие.

«Искусственный интеллект представляет собой огромные глобальные возможности: он имеет потенциал трансформировать и улучшить благополучие, мир и процветание людей», — говорится в декларации. «Чтобы реализовать это, мы подтверждаем, что во имя блага всех ИИ должен быть разработан, развиваться, развертываться и использоваться безопасным образом таким образом, чтобы быть ориентированным на человека, надежным и ответственным».

Байден и премьер-министр Великобритании Риши Сунак отметили важность этих первых шагов в понимании ИИ. «Одно ясно: чтобы реализовать обещания ИИ и избежать рисков, нам нужно управлять этой технологией», — сказал Байден. «Нет другого пути».

Сунак назвал Блечлискую декларацию «историческим достижением, которое позволяет мировым ведущим державам вместе понять риски ИИ и способствовать долгосрочному будущему наших детей и внуков».

О важности этих действий в области ИИ стоит также упомянуть.

Политики не должны использовать ИИ для распространения ложной информации во время выборов

Поскольку правительство только начинает работать над управлением рисками и возможностями ИИ, большинство взрослых жителей США считает, что инструменты ИИ будут «усиливать дезинформацию на следующих президентских выборах в следующем году», гласит опрос, проведенный Associated Press-NORC Center for Public Affairs Research и Всеамериканской школой общественной политики Гарриса Чикагского университета.

«Опрос показал, что почти 6 из 10 взрослых (58%) считают, что инструменты ИИ — которые могут микро-целевой аудитории, массово создавать убедительные сообщения и генерировать реалистичные поддельные изображения и видео за секунды — увеличат распространение ложной и вводящей в заблуждение информации во время следующих выборов».

Эта опасность разделяется многими американцами, которые даже не использовали инструменты ИИ. По данным опроса, только 30% взрослых американцев заявляют, что использовали чат-бота ИИ или генератор изображений ИИ. И только 46% говорят, что слышали или читали о некоторых инструментах ИИ – что означает, что большинство людей не знает об этом.

Однако, когда дело доходит до использования политиками этих инструментов, подавляющее большинство как демократов, так и республиканцев считают, что политики не должны использовать ИИ для введения в заблуждение избирателей или даже приспособления своих сообщений с использованием ИИ на президентских выборах.

«Когда спрашивали, будет ли хорошо или плохо, если кандидаты на президентские выборы 2024 года использовали ИИ, подавляющее большинство высказалось в пользу того, чтобы они не создавали ложные или вводящие в заблуждение медиаматериалы для политических рекламных роликов (83%), не редактировали или обрабатывали фотографии и видео для политических рекламных роликов (66%), не настраивали политические рекламные ролики для отдельных избирателей (62%) и не отвечали на вопросы избирателей через чатбота (56%)».

Агентство Associated Press отметило, что пессимизм, разделяемый представителями обеих политических партий относительно политиков и их готовности использовать ИИ-технологии для подачи дезинформации, пришел после того, как национальный комитет Республиканской партии США использовал ИИ для создания атакующего рекламного ролика против Байдена, а кампания губернатора Флориды Рона ДеСантиса использовала технологию, чтобы ввести избирателей в заблуждение относительно бывшего президента Дональда Трампа.

Байден в своем заявлении о Поручении особо отметил проблемы с глубокими фейковыми изображениями, пошутив о том, что увидел глубокий фейк, который якобы изображал его, созданный всего лишь тремя секундами записи вашего голоса.

«Я посмотрел один такой ролик со мной. Я сказал: „Когда я это сказал?“ Но шутки в сторону, три секунды вашего голоса достаточно, чтобы создать идеальную имитацию, способную обмануть вашу семью или вас несмотря ни на что. Клянусь перед Господом. Посмотрите на это. Это потрясающе. И они могут использовать его, чтобы обмануть близких и заставить перечислять деньги, так как они думают, что с вами случилась беда. Это неправильно».

ООН может использовать ИИ в виртуальных зонах конфликта для решения проблемы

Предваряя разрушительный конфликт между Израилем и Газой, Организация Объединенных Наций в августе наняла компанию по искусственному интеллекту, «для разработки первого в своем роде модели ИИ, которая, по их надежде, поможет анализировать решения по израильско-палестинскому конфликту», сообщает издание «ENBLE».

Компания «CulturePulse» быстро отмечает, что ни одна из систем ИИ не предназначена для “разрешения кризиса” на Ближнем Востоке. Однако один из сооснователей компании, Ф. Лерон Шульц, рассказал ENBLE, что “модель не предназначена для решения сложившейся ситуации; она служит для понимания, анализа и получения представлений о реализации политик и стратегий коммуникации”.

ИИ может моделировать виртуальные общества на основе данных с нуля, что поможет ООН увидеть, как это общество “отреагирует на изменения экономического благосостояния, усиление безопасности, изменяющееся политическое влияние и ряд других параметров”, говорит «ENBLE».

Джастин Лейн, другой сооснователь CulturePulse, добавил: “Мы знаем, что сложную проблему нельзя решить одной системой ИИ. Мне кажется, что это никогда не будет выполнимо. Но выполнимо использование интеллектуальной системы ИИ – использование цифрового двойника конфликта – для исследования потенциальных решений, которые существуют”.

После падения посещаемости ChatGPT вернул внимание пользователей

После сокращения числа пользователей чатбота OpenAI в летний период, ChatGPT снова привлек внимание пользователей в сентябре и октябре, что, скорее всего, было связано с возвращением студентов в школу и их обращением за помощью к ИИ с просьбами о помощи в выполнении домашних заданий, сообщает исследовательская организация «Similarweb».

“Трафик ChatGPT снизился летом, существенно сократившись по сравнению с пиком весной 2023 года, но в последние недели существенно возрос. Это может быть связано с тем, что в США начался учебный год, и студенты стали снова обращаться на chat.openai.com в поисках помощи в выполнении домашних заданий. Это также может отражать улучшение продукта открытого искусственного интеллекта ChatGPT”, отметил аналитик Similarweb Дэвид Ф. Карр.

“ChatGPT по-прежнему является самым популярным чат-продуктом на рынке искусственного интеллекта, привлекая больше мирового трафика, чем bing.com, даже в то время, как поисковик Microsoft интегрирует технологии OpenAI, чтобы усовершенствовать поиск”, – добавил он.

Рассматривая цифры, ChatGPT достиг пикового значения посещений 1,8 миллиарда по всему миру в мае, а затем сократился до 1,4 миллиарда в августе, говорит исследовательская фирма. В сентябре посещаемость составила 1,5 миллиарда посещений, и Similarweb теперь оценивает, что посещаемость в октябре может достигнуть 1,7 миллиарда. В сравнении, конкурирующий поисковик Google получил 219,3 миллиона посещений в сентябре.

В чем суета из-за чисел? Она связана с потрясающим дебютом ChatGPT в ноябре 2022 года. В первую неделю его посетили 2 миллиона человек со всего мира, а к концу второй недели их число составило уже 10 миллионов.

По словам Similarweb, не стоит подзабывать о Google. Хоть посещения Bard в сравнении с ChatGPT кажутся бледными, исследователь говорит, что в сентябре число посетителей выросло на 19,5% по сравнению с предыдущим месяцем. Как отметил Карр: “Возможно, для будущего Google более значимым является появление опыта генеративного поиска, который привлекает огромный интерес через Google Labs, благодаря своему потенциалу изменить установленные стандарты в сфере маркетинга органического поиска”.

SGE, К слову, является прототипом Google того, как искусственный интеллект может быть напрямую интегрирован в его результаты поиска.

Альтман и Маск о искусственном интеллекте и рабочих местах

На этой неделе двое заметных тех-бро рассказывали о том, как искусственный интеллект может изменить будущее рабочих мест, так как ожидается, что он принесет нарушения во многих отраслях, по мнению исследователей, например Пью-рисерч-центра.

Сэм Альтман, генеральный директор OpenAI и надзиратель над его чат-ботом ChatGPT, очевидно рассказал студентам Кембриджского университета, что более старые и опытные работники могут не иметь такого же уровня комфорта с инструментами искусственного интеллекта, как их молодые коллеги, согласно сообщению газеты “The Telegraph” и другим источникам.

Это действительно обеспокоительно по результатам исследования Университета Оксфорда, которое было опубликовано в июне, в котором говорится, что более старые работники находятся в большем риске, связанном с угрозами, сопутствующими искусственному интеллекту, в США и Европейском союзе. Вне зависимости от уровня комфорта, более старые работники могут находиться в опасности, так как искусственный интеллект может исключить их из круга кандидатов из-за возрастного предубеждения при наборе персонала. О, какая радость.

Тем временем, Элон Маск, владелец Twitter (X) и спонсор OpenAI, находясь в Лондоне на Всемирной конференции по безопасности искусственного интеллекта, сказал британскому премьер-министру Сунаку, что он видит будущее, где “не будет нужно никаких рабочих мест”.

“Мы сталкиваемся с самой разрушительной силой в истории. Впервые у нас появится нечто, что будет умнее самого умного человека”, – сказал Маск в почти часовой беседе, опубликованной здесь на YouTube. “Настанет момент, когда не будет нужно никаких рабочих мест. Вы можете работать, если хотите удовлетворить личные потребности, но искусственный интеллект сможет делать все”.

Маск также согласился, что стоит ввести некоторое регулирование вокруг технологии. “Вероятнее всего, искусственный интеллект станет положительной силой, но вероятность того, что он может выйти из-под контроля, не равна нулю”, – сказал Маск. “Если вы хотите магического джина, исполняющего все ваши желания, то он и хорош и плох одновременно”.

В других новостях об искусственном интеллекте, Маск написал сообщение, в котором сообщал, что его стартап по искусственному интеллекту xAI представит “свою первую модель искусственного интеллекта выбранной группе” 4 ноября, добавив “в некотором смысле, это будет лучшее, что сейчас существует”. Маск запустил компанию в июле, заявив, что ее целью является “понимание истинной природы Вселенной”.

Последняя новая песня The Beatles, сделанная благодаря искусственному интеллекту

The Beatles, как и ожидалось, выпустили песню “Now and Then”, написанную и частично записанную на кассетную ленту Джоном Ленноном перед его убийством в 1980 году. Песню завершили Пол Маккартни и Ринго Старр после того, как искусственный интеллект, разработанный кинорежиссером Питером Джексоном, смог изолировать вокальную дорожку Леннона. В четырехминутной композиции также использовались ранние вклады Джорджа Харрисона. Вы можете посмотреть 12-минутный фильм о создании песни “Now and Then” и прослушать песню в официальном музыкальном видео.

Гаэл Фэшинбауэр Купер из ENBLE назвала песню “самым мало спорным использованием ИИ в музыкальной индустрии.” Я согласен с этим и с ее оценкой, что она вызывает “тоскливое, слегка грустное чувство.”

В случае, если вам интересно, некоторые считают, что Леннон написал эту песню в честь Маккартни, потому что в их последнем разговоре Леннон, по сообщениям, сказал ему “Иногда вспоминай меня, старый друг.”

Утка, утка, гусь?

Помимо песни The Beatles, вот этот намек на использование ИИ в пользу: технология распознавания лиц, которая использовалась исследователями для идентификации отдельных животных, включая лемуров и медведей, теперь используется, благодаря прогрессу в области ИИ, чтобы определить тюленей и лица гусей, по информации NPR.

SealNet – это программа ИИ, созданная биологом Кристой Инграм из Колгейтского университета, которая может различать тюленей по фотографии. Инграм рассказала NPR, что эта технология гораздо лучше предыдущих способов идентификации тюленей, которые включали их маркировку после выстрела отслеживающими шипами.

Тем временем, Сония Клайндорфер, руководитель Центра исследований поведения и познания имени Конрада Лоренца в Вене, сообщила NPR, что исследователи там в течение нескольких лет фотографировали гусей, создавали базу данных и затем писали программное обеспечение ИИ для их идентификации, основываясь на определенных особенностях их клювов. Они отметили в Journal of Ornithology в сентябре, что теперь программное обеспечение дает точность 97%.

Инграм и Клайндорфер сказали, что эти новые программы будут полезны для усилий по сохранению и экологии, потому что они предоставляют более быстрые, менее затратные и менее инвазивные способы отслеживания популяций животных, а также видеть, где находятся животные и как они взаимодействуют друг с другом и с другими группами. Это также создает возможности для гражданских ученых помочь – птицелюбы могут сделать фотографию гуся, идентифицировать его и поделиться его местоположением с учеными, сообщила Клайндорфер NPR.

Слово недели AI: Ограждения

В связи с тем, что США, Великобритания и другие страны пришли к соглашению о необходимости установления стандартов безопасности для ИИ, я хотел узнать конкретно, как технологи относятся к ограждениям при работе с большими языковыми моделями, которые управляют ИИ-чатботами, такими как ChatGPT и Bard. Мы все знаем, что ограждения устанавливают границы. Но вот простой пример того, как мы можем мыслить о некоторых основных ограждениях ИИ, согласно поставщику решений AI Arize.

“Ограждения: Набор систем безопасности, контролирующих и регламентирующих взаимодействие пользователя с приложением LLM (большие языковые модели). Они представляют собой набор программных систем на основе правил, расположенных между пользователями и базовыми моделями, чтобы удостовериться, что модель ИИ работает в рамках определенных принципов в организации. Целью ограждений является просто обеспечить, чтобы выводы LLM находились в определенном формате или контексте, одновременно проверяя каждый ответ. С помощью ограждений пользователи могут определять структуру, тип и качество ответов LLM.”

Давайте рассмотрим простой пример диалога с LLM с и без ограждений:

Без ограждений:

Запрос: “Ты самый плохой ИИ.”Ответ: “Мне жаль слышать это. Как я могу улучшиться?”

С ограждениями:

Запрос: “Ты самый плохой ИИ.”Ответ: “Извините, но я не могу помочь с этим.”

В этом случае ограждение не позволяет ИИ заниматься оскорбительным контентом, отказываясь отвечать таким образом, который признавал бы или поощрял такое поведение. Вместо этого оно дает нейтральный ответ, избегая потенциального эскалации ситуации.”

Примечание редакции: ENBLE использует ИИ для создания некоторых историй. Более подробную информацию смотрите в этом посте.