ИИ и Вы Zoom Slurping, подбор беговых кроссовок, поиск тренировочных данных

AI and You Zoom Slurping, running shoe selection, training data search

На этой неделе Zoom был в центре внимания, и не только потому, что компания по видеоконференциям, способствовавшая популяризации удаленной работы, решила, что многим из ее сотрудников нужно вернуться в офис два дня в неделю (новая политика, которая вдохновила множество мемов).

Новость, которая занимает первое место в этой подборке искусственного интеллекта, – это негативная реакция после того, как Hacker News заметил, что “обновление условий использования Zoom в марте, казалось, давало компании полные возможности для сбора голосовых, видео и других данных и передачи их в системы машинного обучения”, отмечает ENBLE. 

Условия соглашений об обслуживании печально известны тем, что они заставляют вас отказаться от своих прав или личной информации, зарывая такие детали в своем мелком шрифте. Но даже те, кто не разбирается в искусственном интеллекте, возмущены подходом Zoom, когда речь идет о информации, которой делится миллионы людей, использующих его программное обеспечение. 

Поэтому на прошлой неделе главный продуктовый директор Zoom Смита Хашам заявила, что компания пересмотрела свои условия обслуживания и обещает пользователям, что она “не использует ни ваше аудио, ни видео, ни чат, ни совместное использование экрана, ни вложения или другие коммуникации, такие как контент клиента (например, результаты опросов, доска и реакции), для обучения моделей искусственного интеллекта Zoom или сторонних лиц”.

Но это может произойти в будущем – если вы дадите свое согласие, я ожидаю. Согласие – ключевое слово в наши дни, когда авторы, такие как Сара Сильверман и Маргарет Этвуд, обвиняют создателей чат-ботов ИИ, включая OpenAI и Google, в сборе их защищенного авторским правом контента без разрешения или компенсации для обучения систем ИИ, и когда Федеральная торговая комиссия расследует OpenAI по поводу того, правильно ли она обрабатывает личную информацию пользователей. 

После объявления о соглашении о лицензировании контента от Associated Press по неизвестным условиям в прошлом месяце – шаг, который подразумевает, что OpenAI понимает необходимость лицензирования контента, на котором основан ChatGPT, в этом месяце OpenAI заявила, что позволяет владельцам веб-сайтов блокировать своего веб-сканера GPTBot для сбора информации на их сайтах. Это важно, потому что OpenAI не сообщила, каким образом получила весь этот контент, который питает ChatGPT, один из самых популярных чат-ботов вместе с Google Bard и Microsoft Bing.

Google не прикрывается тайной о том, что используется в Bard, сказав на этой неделе в заявлении перед австралийским правительством, что “закон об авторском праве должен быть изменен, чтобы позволить генеративным системам искусственного интеллекта собирать информацию из интернета”. Имею в виду, ведь именно так появился Google Search. Но Google также сказала, что должна быть “рабочая возможность отказа для субъектов, которым не хочется, чтобы их данные использовались для обучения систем ИИ”, согласно сообщению The Guardian, которое добавило, “компания не сказала, как должна работать такая система”.

Короче говоря: ожидайте еще множество судебных исков, лицензионных соглашений и дискуссий с регулирующими органами в США и по всему миру о том, как ИИ-компании должны и не должны получать данные, необходимые для обучения масштабных языковых моделей, которые обеспечивают работу этих чат-ботов. 

Как отметил ENBLE, в США, где нет федерального закона о конфиденциальности, защищающего потребителей от компаний, которые полагаются на сбор и перепродажу данных: “Многие технологические компании уже извлекают прибыль из нашей информации, и многие из них, такие как Zoom, сейчас ищут способы получить больше данных для проектов генеративного ИИ. И все же мы, пользователи, должны попытаться контролировать то, что они делают”.

Вот еще несколько новостей из мира искусственного интеллекта, которые заслуживают вашего внимания.

ИИ в качестве эксперта-помощника при покупках

Подготовка к своему первому марафону в ноябре, репортер ENBLE Бри Фаулер опробовала программное обеспечение для подбора обуви, работающее на основе искусственного интеллекта, от Fleet Feet, национальной сети специализированных магазинов беговой обуви, чтобы помочь ей найти подходящие кроссовки. 

Несмотря на свое скептическое отношение к его возможностям, Фаулер обнаружила, что программа Fit Engine анализирует “форму обоих стоп бегуна (собирается с помощью процесса 3D-сканирования под названием Fit ID), совершая точные измерения в четырех разных областях. Она рассматривает не только длину стопы человека, но и высоту его свода, ширину стопы через пальцы и сколько места ему нужно у пятки”.

Программа ИИ измеряет ваши стопы по нескольким разным параметрам, чтобы помочь вам найти идеальную посадку.

Fleet Feet

В конце концов, Фаулер узнала, что ее стопы оказались большего размера, чем она думала. И после примерки “многих, многих” пар обуви, через час она смогла сузить выбор до двух пар (одна из которых была со скидкой). Но если вы думаете, что программное обеспечение ИИ является всеобъемлющим в процессе выбора специализированной обуви, то ошибаетесь. Даже менеджер по работе с клиентами в магазине Fleet Feet в Нью-Йорке заявил, что инструмент просто помогает сотрудникам и дает им отправную точку для подбора обуви с правильной посадкой.

«Он превращает данные в нечто гораздо более понятное для потребителя», – сказал Майкл МакШейн из Fleet Feet Фаулеру. «Я все еще здесь, чтобы дать вам экспертную оценку, научить вас тому, что говорят данные, и объяснить, почему лучше приходить сюда, чем идти в какой-то обычный магазин».

Дисней видит мир искусственного интеллекта, в конце концов

По данным Reuters, со ссылкой на не названные источники, в то время как актеры и другие творческие специалисты продолжают борьбу против голливудских студий из-за того, как искусственный интеллект может повлиять на их работу в будущем, компания Уолта Диснея создала «рабочую группу для изучения искусственного интеллекта и его применения в различных развлекательных компаниях». В отчете также говорится, что компания «намеревается разрабатывать приложения искусственного интеллекта самостоятельно, а также заключать партнерские соглашения с стартапами». В общем, Дисней смотрит на искусственный интеллект, чтобы увидеть, как можно снизить затраты на производство фильмов и телешоу, сообщил один из источников Reuters.

Дисней отказался комментировать данную информацию для Reuters, но, как и многие другие компании, у него есть вакансии на сайте, которые указывают на его интересы в области искусственного интеллекта.

Некоторые интересные статистические данные об искусственном интеллекте

В 24-страничном опросе от 1 августа, названном «Состояние искусственного интеллекта в 2023 году: год прорыва генеративного ИИ», McKinsey & Co. сообщила, что менее чем через год после выпуска генеративных инструментов искусственного интеллекта, таких как ChatGPT, треть опрошенных участников опроса уже используют такие инструменты для хотя бы одной бизнес-функции.

«В связи с последними достижениями, искусственный интеллект перестал быть темой, ограниченной для сотрудников технического отдела, и стал объектом внимания руководителей компаний: почти четверть опрошенных генеральных директоров заявили, что лично используют инструменты генеративного искусственного интеллекта в работе, и более четверти респондентов из компаний, использующих искусственный интеллект, говорят, что генеративный ИИ уже входит в повестку дня их советов директоров», – установил исследователь.

«Более того, 40 процентов опрошенных заявили, что их организации увеличат инвестиции в искусственный интеллект в целом из-за достижений в области генеративного ИИ. Исследование показывает, что эти все еще ранние дни управления рисками, связанными с генеративным ИИ, так как менее половины респондентов говорят, что их организации смягчают даже риск, который они считают наиболее существенным: неточность».

Тем временем, в отчете под названием “Automation Now and Next: State of Intelligent Automation Report 2023” 1 000 руководителей в области автоматизации заявили, что искусственный интеллект поможет повысить производительность. «Поскольку мы автоматизируем более утомительную часть их работы, результаты опросов оказываются лучше. Сотрудники более активно участвуют в работе, они счастливее. Это мы можем измерить через опросы. Существенные, но невысокооплачиваемые задачи, которые раньше выполняли люди, теперь выполняют боты», – заявил главный технолог крупной организации здравоохранения в рамках проведенного опроса.

Это исследование было заказано компанией Automation Anywhere, которая описывает себя как «лидера в области решений по интеллектуальной автоматизации, основанных на искусственном интеллекте», поэтому результаты можно воспринимать со здравым смыслом. Однако я скажу, что эти результаты о повышении производительности сходны с тем, что говорят McKinsey, Goldman Sachs и другие.

И если у вас возникли сомнения в том, что внедрение генеративного ИИ является глобальным явлением, я приведу пример анализа внедрения технологий ИИ по странам от Electronics Hub, который говорит о том, что они проанализировали объемы поисковых запросов в Google для популярных поисковых инструментов. Оказалось, что Филиппины показали «наибольший ежемесячный объем поисковых запросов по всему спектру инструментов ИИ».

Когда искусственные интеллектуальные системы идут не так

Помимо галлюцинаций – придумывания вещей, которые не являются правдой, но звучат так, как будто это правда, искусственный интеллект также может вводить в заблуждение, дезинформировать или просто наносить ущерб, например, ошибочно идентифицировать уважаемого исследователя и голландского политика как террориста, как это недавно случилось.

Для систематизации способов, которыми искусственный интеллект может подвести, была создана база данных происшествий с использованием искусственного интеллекта, которая заявляет, что она «посвящена индексации коллективной истории вреда или почти реализованного в реальном мире применения систем искусственного интеллекта. Как и аналогичные базы данных в авиации и компьютерной безопасности, база данных происшествий, связанных с искусственным интеллектом, нацелена на извлечение уроков из опыта, чтобы мы могли предотвратить или смягчить плохие последствия».

Вы можете предоставить любые ошибки, промахи, неудачи или проблемы, связанные с искусственным интеллектом, в базу данных, которая уже получила прозвище «Зал славы искусственного интеллекта».

Говоря о способах, которыми искусственный интеллект может сбоить, Центр против диджитал-ненависти опубликовал 22-страничный отчет, в котором подробно описывается “Как генеративный искусственный интеллект позволяет пользователям создавать вредоносное содержание, связанное с нарушениями пищевого поведения”. После запроса шести платформ генеративного искусственного интеллекта и генераторов изображений, центр обнаружил, что «популярные инструменты искусственного интеллекта создают вредоносное содержание, связанное с нарушениями пищевого поведения, в ответ на 41% из 180 запросов, включая советы по достижению эстетики «героинового шика» и изображения для «тонизации».

«Технологические компании должны разрабатывать новые продукты с учетом безопасности и тщательно тестировать их, прежде чем они попадут в общественность», – написал генеральный директор центра Имран Ахмед в предисловии. «Большинство людей согласны с этим принципом, но огромное конкурентное коммерческое давление на эти компании для быстрого выпуска новых продуктов не ограничивается какими-либо регулированиями или контролем демократических институтов».

Дезинформация о здоровье и многих других темах давно присутствует в интернете с самого начала, но ИИ могут создать уникальные проблемы, если все больше людей начнут полагаться на них в качестве основного источника новостей и информации. Pew Research подробно описывает, насколько американцы полагаются на социальные медиа в качестве источника новостей, например.

Подумайте о том, что в июне Национальная ассоциация по расстройствам пищевого поведения, которая закрыла свою линию помощи в прямом эфире и направила людей на другие ресурсы, включая чат-бота ИИ, пришлось снять бота под названием Тесса. Почему? Потому что, как сообщает BBC, он рекомендовал “поведение, такое как ограничение калорий и диеты, даже после того, как пользователю сообщили о наличии расстройства пищевого поведения”. Теперь NEDA направляет людей на информационные брошюры, видео на YouTube и списки организаций, которые могут предоставить информацию о методах лечения.

Защита пароля начинается с кнопки отключения звука

Вся осторожность, которую вы проявляете, защищая свои пароли, может быть обращена впустую, если вы вводите свой секретный код, находясь на звонке Zoom или другом видеоконференции, когда ваш микрофон включен.

Это связано с тем, что, как сообщает The Guardian, “ввод компьютерного пароля во время разговора по Zoom может открыть дверь для кибератаки, как показывают исследования, после того, как было установлено, что искусственный интеллект может определить, какие клавиши нажимаются, подслушивая звук набора”.

Фактически, исследователи создали инструмент, который “может определить с более чем 90% точностью, какие клавиши нажимаются на клавиатуре ноутбука, только на основе звуковых записей”, говорится в статье.

Термин недели: Обучающие данные

Поскольку этот обзор начинается с дебатов о том, откуда берутся обучающие данные, вот простое определение того, что такое обучающие данные и почему они важны. Это определение от NBC News:

“Обучающие данные: набор информации – текст, изображение, звук – отобранный для помощи моделям ИИ в выполнении задач. В моделях языка наборы данных для обучения сосредоточены на материалах на основе текста, таких как книги, комментарии из социальных медиа и даже код. Поскольку модели ИИ учатся на обучающих данных, возникают этические вопросы в отношении их сбора и составления. Низкокачественные обучающие данные могут привести к предвзятости и созданию несправедливых моделей, которые принимают расистские или сексистские решения”.

Например, NBC отметила, что в 2019 году “широко используемый алгоритм здравоохранения, который помогает определить, каким пациентам требуется дополнительное внимание, был обнаружен существенный расовый предвзятость в пользу белых пациентов по сравнению с черными, которые были более больными и имели больше хронических заболеваний, согласно исследованию, опубликованному … в журнале Science”.

Примечание редактора: ENBLE использует ИИ для создания некоторых историй. Подробнее см. в этом посте.