4 способа преодолеть ваши самые большие беспокойства по поводу генеративного искусственного интеллекта

4 способа преодолеть вашу самую большую тревогу о генеративном искусственном интеллекте

worry-tech-gettyimages-1427840767

Генеративный искусственный интеллект (ИИ) – это магия для неподготовленного глаза. 

От краткой сводки текста до создания изображений и написания кода, инструменты, такие как ChatGPT от OpenAI и Copilot от Microsoft, производят то, что кажется блестящими решениями сложных вопросов в считанные секунды. Однако волшебные способности генеративного ИИ могут прийти вместе с неполезными трюками.

Также: Вашему бизнесу нужен главный AI-директор?

Будь то этические проблемы, проблемы безопасности или галлюцинации, пользователям необходимо знать о проблемах, которые могут подорвать преимущества новейших технологий. Здесь четыре руководителя бизнеса объясняют, как можно преодолеть некоторые из больших проблем с генеративным ИИ.

1. Используйте новые возможности этичным образом

Биргитте Ага, руководитель отдела инноваций и исследований в Осло, Норвегия, говорит, что большинство проблем с ИИ связаны с пониманием его потенциального влияния — и с хорошей причиной.

Даже такой популярный инструмент генеративного ИИ, как ChatGPT, был доступен для широкой публики всего немного более 12 месяцев. В то время как многие люди имели дело с этой технологией, немногие предприятия использовали этот инструмент в производственной среде.

Ага говорит, что организации должны дать своим сотрудникам возможность увидеть, что могут делать новые технологии в безопасной и защищенной среде. “Я считаю, что уменьшение порога для участия всех – это ключевой момент”, – говорит она. “Но это не означает делать это безрассудно”.

Ага говорит, что когда ваши сотрудники обсуждают, как можно использовать ИИ, они также должны учитывать некоторые важные этические вопросы, такие как предвзятость, стереотипирование и технические ограничения.

Также: Безопасность и предвзятость ИИ: Распутывание сложной цепи обучения ИИ

Она объясняет в видеочате с ENBLE, как музей работает с технологической компанией TCS, чтобы найти способы использования ИИ для помощи в доступности искусства для более широкой аудитории.

“У нас с TCS действительно есть понимание на этическом и моральном уровне на каждой встрече”, – говорит она. “Находите таких партнеров, с которыми вы действительно находитесь на одной волне на этом уровне, и развивайтесь оттуда, вместо того, чтобы просто находить людей, которые делают крутые вещи”.

2. Сформировать команду по снижению рисков

Авива Литан, выдающийся аналитик-вице-президент Gartner, говорит о том, что одной из ключевых проблем, о которой следует быть осведомленными, является давление на изменения со стороны людей вне отдела информационных технологий.

“Бизнес стремится двигаться вперед на полную катушку”, – говорит она, относительно принятия инструментов генеративного искусственного интеллекта профессионалами по всей организации, с согласия или без такового ответственных лиц. “Специалисты по безопасности и рискам испытывают трудности в определении параметров такого развертывания, отслеживании действий людей и управлении рисками”.

Также: 64% сотрудников пытались представить генеративные ИИ-работы за свои собственные

В результате существует много напряжения между двумя группами: теми, кто хочет использовать искусственный интеллект, и теми, кто должен управлять его использованием.

“Никто не желает пресекать инновации, но специалисты по безопасности и рискам никогда не сталкивались с чем-то подобным”, – говорит она в видео-чате с ENBLE. “Несмотря на то, что искусственный интеллект существует уже много лет, им не приходилось действительно беспокоиться о технологиях до появления генеративного искусственного интеллекта”.

Литан говорит, что лучший способ снять опасения – создать команду по искусственному интеллекту, включающую экспертов из разных сфер бизнеса и учитывающую приватность, безопасность и риски.

“Тогда все будут на одной волне, они будут знать, каковы риски, что должна делать модель, и каковы будут лучшие результаты”, – говорит она.

Также: Искусственный интеллект в 2023 году: год прорывов, которые не оставят без изменений ничего человеческого

Литан говорит, что исследования Gartner показывают, что две трети организаций еще не создали команду по искусственному интеллекту. Она призывает все компании создать такой кросс-функциональный отряд.

“Подобные команды способствуют общему пониманию”, – говорит она. “Люди знают, чего ожидать, и бизнес может создавать больше ценности”.

3. Ограничьте свои модели для снижения галлюцинаций

Тьерри Мартин, старший менеджер по стратегии данных и аналитике в Evrope Toyota Motors, говорит, что его наибольшее беспокойство относительно генеративного искусственного интеллекта – это галлюцинации.

Он видел подобные проблемы на практике, когда тестировал генеративный искусственный интеллект для целей кодирования.

Продвигаясь за пределы персональных исследований, Мартин говорит, что предприятия должны обращать внимание на использование крупных языковых моделей (LLM), которые они используют, требуемые входы и выходы.

“Нам нужны очень стабильные крупные языковые модели”, – говорит он. “Многие из самых популярных моделей сегодня обучаются на различных вещах, таких как поэзия, философия и технический контент. Когда вы задаете вопрос, открывается дверь к галлюцинациям”.

Также: 8 способов снизить галлюцинации ChatGPT

В интервью с ENBLE, Мартин подчеркивает, что бизнес должен найти способы создания более сдержанных языковых моделей.

“Я хочу оставаться в пределах базы знаний, которую я предоставляю”, – говорит он. “Тогда, если я задаю специфический вопрос модели, она даст мне правильный ответ. Таким образом, я хотел бы видеть модели, которые более привязаны к моим предоставляемым данным”.

Мартин интересуется новейшими разработками, такими как сотрудничество между Snowflake и Nvidia, где обе компании создают фабрику искусственного интеллекта, которая помогает предприятиям превращать их данные в индивидуальные генеративные ИИ-модели.

«Например, LLM, которая идеально подходит для создания SQL-запросов из кода Python, представляет собой нечто интересное», – говорит он. «ChatGPT и все эти другие общедоступные инструменты хороши для случайного пользователя. Но если вы связываете такой инструмент с корпоративными данными, нужно быть осторожным».

4. Прогрессируйте медленно, чтобы смягчить ожидания

Бев Уайт, генеральный директор специализированной наборной конторы Nash Squared, говорит, что ее волнует практическая реальность использования генеративного ИИ, которая может сильно отличаться от ожиданий.

«Вокруг этого было много шума, – говорит она в видеоинтервью с ENBLE. – Также было много пугалок, утверждающих, что будут потеряны рабочие места и что ИИ вызовет массовую безработицу. И есть также все опасения относительно безопасности данных и конфиденциальности».

Уайт говорит, что важно осознать, что первые 12 месяцев генеративного ИИ характеризовались гонкой крупных технологических компаний на усовершенствование и обновление своих моделей.

«Эти инструменты уже прошли множество итераций – и это не случайно, – говорит она. – Люди, использующие технологию, обнаруживают положительные моменты, но им также нужно быть внимательными к изменениям при каждой новой итерации».

Также: 3 самые большие риски генеративного ИИ – и как с ними справиться

Уайт советует главным информационным офицерам и другим руководителям быть осторожными. Не пугайтесь отойти назад, даже если кажется, что все остальные спешат вперед.

«Я думаю, нам нужно что-то реальное, что мы можем использовать в качестве ограничителей. Главы отделов информационной безопасности в организациях должны начать думать о генеративном ИИ – и наши данные указывают на то, что они этим занимаются. Также, правовое регулирование должно идти в ногу со скоростью изменений», – говорит она.

«Возможно, нам нужно двигаться немного медленнее, пока мы не выясним, что делать с этой технологией. Это похоже на то, чтобы изобретать удивительную ракету, но не иметь стабилизаторов и систем безопасности вокруг нее, прежде чем запускать ее».