Исключение искусственного интеллекта из индейского голоса – это повторение истории

Исключение искусственного интеллекта из голоса - это повторение истории

Мировая арена проектирования и внедрения искусственного интеллекта продолжает разнообразиться, с возрастающим интересом к простому в использовании генеративному искусственному интеллекту, способствующему его росту. Все еще находится в стадии инкубации: роль искусственного интеллекта в развитии доступных пространств как онлайн, так и офлайн.

Меган Ван Хартен является стратегическим лидером и партнером в Design de Plume, креативном агентстве, принадлежащем индейцам и возглавляемом женщинами, расположенном в Канаде. Бизнес и дизайн этики Design de Plume включают в себя, как говорит Ван Хартен, “калейдоскоп” различных мировых прочтений: индигенность, инклюзивность, разнообразие, равенство, устойчивость и доступность. Компания была создана после начала карьеры Ван Хартен в качестве графического дизайнера, когда она и ее сооснователи решили добавить взгляд на цифровой дизайн, отсутствующий в основном течении.

Design de Plume интегрирует эти принципы непосредственно в рамки услуг и решений, таких как дизайн сайта, например, его недавняя работа с Indigenous Protected and Conserved Areas (IPCAs) Knowledge Basket, цифровая платформа для обмена информацией о пути индейцев, связанном с сохранением природы, в Канаде. Компания была награждена премией DNA Paris Design Award 2023 года за этот проект.

В своей работе стратега и публичного оратора Ван Хартен уделяет особое внимание доступности для коренных народов. Дизайнер, базирующийся в Онтарио, говорит, что исключение культурных и языковых моделей коренных народов из стандартов доступности и их соблюдения привело к огромным пробелам в обеспечении доступности коммуникаций для коренных сообществ.

И даже с бумом искусственного интеллекта, сопровождающим новую волну так называемого технологического инновационизма и автоматизации, этот разрыв не уменьшается – на самом деле, он, похоже, расширяется.

В качестве соавторов в разработке цифровых технологий и пространств Ван Хартен и ее коллеги призывают больше людей оценивать всю систему доступности, чтобы задаться вопросом, как ассистивные технологии, веб-сервисы и даже инструменты, работающие на основе искусственного интеллекта (например, живые транскрипты и генерация изображений), могут быть более значимыми для коренных групп и включить их потребности.

В разговоре о своей работе и миссии Ван Хартен говорит с Чейзом ДиБенедетто из ENBLE о неудачах в создании искусственного интеллекта, необходимости развития стандартов доступности и о том, что включение индейских взглядов должно быть одним из первых шагов в технологическом инновационизме.

ENBLE: Как вы воплощаете “включение индигенности” в своей работе?

Ван Хартен: Есть такая идея “Двухглазого видения”, использующая лучшее из западных принципов и индейского знания одновременно. Для этого используют оба глаза. Это очень сильно связано с культурой Design de Plume, но также и с культурой хорошего дизайна: брать лучшее из обоих миров. Мне нравится термин “Открытая Чашка” или “Пустая Чашка” – позволить другим наполнять вас знаниями, чтобы вы могли предложить хорошее решение в конце дня. Это не новая концепция. Она кажется новой для корпоративной Америки, но на самом деле это не так. Она является основой индейского способа познания.

Например, способ, которым мы проводим наши сессии взаимодействия с клиентами. Мы всегда говорим, что это больше похоже на круг – никто не стоит над кем-то или выше друг друга, каждый голос должен быть равнозначно представлен – таким образом мы можем создать более инклюзивную среду и сосредоточиться на идее решения проблемы вместе. Как агентство, мы не приходим с трендами или инструментами дизайна, которые работали в прошлом. Это может не быть верно для каждой группы первых наций или каждой коренной группы, с которой вы встречаетесь. Вам нужно быть открытым для создания безопасного, открытого пространства для сотрудничества с людьми.

Вы обнаружили, что коренные группы часто исключаются из доступного дизайна, особенно при разработке новых инструментов искусственного интеллекта.

Что касается искусственного интеллекта, это действительно было крайне трудно. В технологии есть так много предвзятости в том, как она разрабатывается. Коренные народы не консультируются, когда дело доходит до поиска решений. Я имею в виду, что если они привлекаются, то привлекаются в конце проекта и спрашивают: “Проходит ли это?” Это плохое взаимодействие. Вам нужно вовлекать этих людей с самого начала, объяснять им проблему, вовлекать их в поиск решений и вознаграждать их за эти усилия. Некоторые трудности, например, с подписями, как автоматическим распознаванием речи, были крайне трудными.

Можете ли вы рассказать подробнее, как живые титры или автоматическое распознавание речи в целом, не удовлетворяют эти сообщества?

Например, я только что скачала транскрипцию живой презентации, которую я провела, и она изменила слово “Анишинаабе”, которое обозначает большую группу коренных народов, на “Хонест Наби”. Так оно полностью исказило язык. Я упомянула группу людей, и он даже не смог это понять. Даже если есть прямой английский перевод… индейские языки работают таким образом, что они крайне целенаправлены, каждая буква и комбинация букв имеют свои подзначения. Есть так много целенаправленных нюансов в этом конкретном слове, которые теряются, особенно в случае живых титров.

[В статье ENBLE о 2023 году отчета 3PlayMedia о состоянии автоматического распознавания речи, компания по предоставлению услуг доступности] говорится, что автоматическое распознавание речи точно на 90 процентов, но нуждается в точности, как у 99 процентов. Но когда речь идет об индигенных языках, точность составляет ноль процентов. Это жесткая реальность, в которой мы живем. То, как мы разрабатываем технологии, системы дизайна и все эти вещи, способствует культурному геноциду и исчезновению языков.

Является ли концепция универсального дизайна, или идея создания продуктов и пространств с полной доступностью с самого начала, решением?

Существует так много вопросов в разработке стандартов, законов о соответствии и т. д. Но для индигенных народов нет основы. В сфере доступности люди часто упоминают, что соблюдение закона ADA (или, в моем случае, AODA) является основой, а не потолком. Для индигенных народов это просто пропасть. Они просто попадают в эту воронку. Они не имеют доступа к системам доступного языка на своих языках, и нет способа разработать инструменты, основанные на двух языках одновременно.

Что так раздражает, так это то, что у нас уже есть идеи. Инструменты хороши, в каком-то смысле. Хорошо, что у нас есть субтитры. Ужасно, что система не может понять, когда я по буквам объясняю, что я на самом деле пытаюсь сказать.

Я считаю, что с появлением генеративного искусственного интеллекта и вложениями в его постоянное развитие, эту проблему уже должны были рассмотреть.

Абсолютно. Почему я не могу заранее общаться с ИИ? Если я собираюсь выступать на этом языке, позвольте мне научить вас, как это сказать. Но я не могу этого сделать. В настоящее время лучшим решением являются живые транскрипции и живые [человеческие] субтитры. Это замечательно, но многие организации не имеют финансирования, чтобы предложить живые субтитры. Поэтому предупреждение, которое я должен им дать, заключается в том, что [автоматические] субтитры не будут иметь смысла.

Есть ли структурная причина для этого полного разрыва?

Существует очень большое внимание к поддержке доступности для монолингвистов, поэтому у вас есть документ на английском или французском языке, и он будет читать его на английском или французском. Но что происходит с индигенными языками, где часть языка была потеряна из-за геноцида и дискриминации? Даже если вы разработаете систему и скажете: “Мы можем полностью прочитать эту страницу на английском и эту страницу на другом индигенном языке”, вы все равно можете полностью пропустить концепцию, потому что нет хорошего способа внедрить оба языка в одном документе. В настоящее время ни одна технология доступности не может сделать это, потому что фокусируется на западном способе мышления, согласно которому все раздельно.

Встречались ли вам такие проблемы сосредоточения в других популярных случаях использования искусственного интеллекта, таких как генерация изображений или чат-боты?

Программное обеспечение для генерации изображений очень интересно в сфере дизайна. Вы часто слышите о том, что это может “настолько хорошо отфотошопить. Оно выглядит так хорошо.” Но это чистая ерунда, особенно когда речь идет о представлении индигенной культуры и принципов.

У вас есть пример?

В нескольких культурах Первых Наций в Канаде у нас есть нечто, называемое Колесом Медицины. В этом символе содержится много смысла, и он предназначен для исцеления. Я использовал программное обеспечение для генерации изображений и ввел “индигенное колесо медицины”. Вот и все. Это несложно. Если ввести это в Google, вы получите настоящее Колесо Медицины.

Но то, что возвращается из программного обеспечения для генерации изображений, это буквально мусор. Я видел такие случаи, когда это был тарелка с различными предметами на ней. Я подумал, что, возможно, оно интерпретировало это как еду. Еда может быть лекарством, верно? Еда может исцелять. Но когда я увеличил изображение, я понял, что это раковины улиток. И это сигарета. Просто случайные текстуры, которые оно выбрало, чтобы сделать “круто выглядящее” изображение, но полностью утратило намеренность и индигенные культурные принципы.

Я также видел это для инструментов генерации альтернативного текста… Я думаю, что это действительно было бы доступно для людей, если бы они могли использовать такие инструменты, чтобы хотя бы иметь хорошую отправную точку. Но вы не можете иметь такую отправную точку, если нет основы намеренности и включенности.

Беспокоюсь ли я о том, что искусственный интеллект заберет мою работу? Нет, вовсе нет.

Кажется, что рядом с этим увлечением инновациями в области искусственного интеллекта возникает одновременно культура страха от его возможностей.

Если мы говорим, что искусственный интеллект порождает культуру страха, то он порождает эту культуру страха, потому что не представляет людей.

Вы говорите о достижении такого уровня, когда искусственный интеллект полностью “понимает” индейские языки или культуру, предоставляя услугу. Что это включает в себя?

Я думаю, что понимание – это навык сотрудничества. Одной из самых интересных вещей в искусственном интеллекте сейчас является возможность общения с ним, помощи и его развития. Иметь такой инструмент в более широком доступе помогло бы в понимании. Вы могли бы сказать ему: “Эй, то, что ты говоришь, на самом деле вредно и усиливает стереотип. Мы должны перестать это говорить”. Я хотел бы, чтобы это стало широко применяемым в этих системах.

Но также, прежде чем выпустить продукт и просто ожидать, что мир исправит его взаимодействием с ним, включите людей на начальных этапах, чтобы помочь на него повлиять. Привлеките разнообразную группу людей, чтобы поговорить с этим искусственным интеллектом, чтобы он мог понять, что в интернете много мусора, который он будет подхватывать, или что люди будут внести в него.

На самом деле, может ли существовать полностью инклюзивный и всесторонний инструмент, подобный этому? Или это нечто, что не следует отдавать на откуп технологии или услугам на основе искусственного интеллекта? Достаточно ли решений с участием человека?

Я думаю, что если вы строите технологию более инклюзивным образом и готовы также идти по деструктивному пути и переосмыслить ваш предыдущий подход, это возможно.

Одной из основных областей, о которых им нужно говорить, будь то правительство, корпорации или эти крупные технологические гиганты, – это кого они готовы исключить? Индейские народы – одна из самых быстро растущих популяций в Северной Америке. Таким образом, не разрабатывая эти инструменты с учетом индейской культуры и инклюзивности, мы исключаем эту огромную группу людей. Не на индейских народах решать каждую проблему. Это на людях, у которых есть средства, чтобы это осуществить, и которые готовы пересмотреть свои процессы, чтобы двигаться вперед правильным путем.

Компьютер не может имитировать эмпатию. Он не может понять эмпатию. И то же самое относится к людям. Если они не эмпатичны, то они не поймут, почему это имеет значение, почему мы говорим об этой конкретной проблеме. Но именно человеческий уровень эмпатии поможет нам решить эту проблему.