Устремляетесь к принятию генеративного искусственного интеллекта? Почему скептицизм – ваша лучшая защита

Идете к генеративному искусственному интеллекту? Скептицизм - ваша защита

С некоторыми организациями, которые продвигаются вперед, чтобы принять генеративный искусственный интеллект (ИИ), критично, чтобы они делали это, снижая потенциальные риски и с некоторым уровнем скептицизма.

По данным исследования Gartner, опубликованного во вторник, в настоящее время 45% предприятий находятся в стадии пилотного запуска генеративного ИИ, в то время как 10% уже используют такие инструменты в производстве. В опросе приняли участие 1 419 руководителей во время вебинара в прошлом месяце, чтобы обсудить бизнес-затраты и риски генеративного ИИ.

Также: Безопасность ИИ и предвзятость: Разрешение сложной цепи обучения ИИ

Эти цифры значительно выше, чем в предыдущем опросе, проведенном Gartner в марте и апреле этого года, в ходе которого 15% сообщили о пилотном использовании технологии, а только 4% уже использовали эти инструменты в производстве.

В последнем опросе 78% респондентов заявили, что преимущества генеративного ИИ превышают его риски, что выше, чем 68% в предыдущем опросе.

Gartner отметила, что 45% предприятий масштабируют свои инвестиции в генеративный ИИ в рамках нескольких функций, а 22% делают это в рамках как минимум трех различных функций. Самая высокая степень инвестиций или принятия генеративного ИИ в разработке программного обеспечения составляет 21%, за ним следуют маркетинг и обслуживание клиентов соответственно – 19% и 16%.

“Организации не только говорят о генеративном ИИ – они вкладывают время, деньги и ресурсы, чтобы продвигать его вперед и достигать бизнес-результатов”, – сказала Фрэнсис Карамузис, руководитель исследований и выдающийся аналитик группы Gartner, отметив, что 55% организаций увеличили свои инвестиции в генеративный ИИ с момента его появления в открытом доступе 10 месяцев назад.

“Руководители бизнеса и ИТ понимают, что подход ‘подождать и посмотреть’ более рискованный, чем инвестирование”, – сказала Карамузис.

Когда сомнение является необходимым

Однако, если бизнесы решат продвигаться вперед, они должны иметь систему, чтобы обеспечить ответственное и этичное использование генеративного ИИ.

Некоторая степень скептицизма также должна применяться, в том числе и к инструментам, используемым для обнаружения применения ИИ, сказала Кэти Бакстер, главный архитектор ответственного ИИ в Salesforce.com.

Также: Как ИИ может улучшить кибербезопасность, используя разнообразие

Бакстер отметила, что технология стала демократизированной, позволяя каждому использовать генеративный ИИ без многих ограничений. Однако, хотя многие организации приложили достаточные усилия для удаления токсичного контента и продолжают инвестировать в такие усилия, все еще нет достаточного понимания “насколько важно относиться к генерируемому ИИ-контенту с определенной долей скептицизма”.

Пользователи рассматривают весь такой контент как факт, даже если он является поддельным, – сказала Бакстер в интервью с ENBLE, отметив, что даже инструменты обнаружения ИИ могут ошибаться в некоторых случаях, но могут считаться всегда точными. Такое восприятие может оказать негативное влияние, когда генеративный ИИ и связанные с ним инструменты используются в некоторых областях, таких как образование, где студенты могут быть неправильно обвинены в использовании ИИ в своей работе.

Выражая свою озабоченность такими рисками, она призвала всех лиц или организаций, использующих генеративный ИИ, делать это с “достаточным скептицизмом”.

Как и другие в индустрии, она подчеркнула необходимость введения достаточных ограничений, чтобы гарантировать точность и безопасность ИИ. Кроме того, было бы полезно, если бы внедрение происходило параллельно с инструментами смягчения рисков, такими как обнаружение и отчетность о неисправностях и механизмы для сбора и предоставления обратной связи от людей.

Также: 5 полезных инструментов ИИ для школы, которыми могут пользоваться студенты, учителя и родители

Она также отметила важность данных, используемых для обучения моделей ИИ, подчеркивая, что не многие организации обладают хорошей гигиеной данных.

Фактически, всего 4% бизнес-лидеров и руководителей технологий описали свои данные как полностью доступные, согласно отчету C-Suite Global AI Indicator, опубликованному в прошлом месяце. В ходе исследования, которое провела компания Workday, были опрошены 2 355 руководителей из регионов Азиатско-Тихоокеанского региона, Японии, Северной Америки и ЕМИА, которые занимают различные должности, включая генеральных директоров, главных информационных офицеров и главных финансовых офицеров.

Более половины опрошенных, а именно 59%, описали свои данные как отчасти или полностью изолированные, обнаружило исследование.

В то время как 98% считали, что внедрение искусственного интеллекта и машинного обучения принесет какую-то немедленную пользу бизнесу, 49% заявили, что их организация не готова к этому из-за отсутствия инструментов, навыков и знаний.

Около 43% выразили беспокойство о надежности искусственного интеллекта и машинного обучения, при этом 67% глав исполнительных органов указали на потенциальные ошибки как на основной риск при внедрении искусственного интеллекта и машинного обучения.

Также: Обманывает ли нас искусственный интеллект? Эти исследователи создали своеобразный детектор лжи на основе LLM, чтобы выяснить

Для построения доверия требуется большая прозрачность, но изолированные данные затрудняют возможность руководителей в полной мере использовать их. Из организаций, прошедших опрос, 59% сообщили, что их данные отчасти или полностью изолированы. Только 4% всех опрошенных заявили, что их данные полностью доступны.

Главный технический директор Workday, Джим Страттон, сказал: “Несмотря на некоторую неопределенность, руководители оптимистично смотрят на то, что искусственный интеллект и машинное обучение усилят их рабочую силу и повысят производительность. Доверие является ключевым фактором для использования этих преимуществ, и построение доверия требует правильного основания данных и приверженности к управлению данными.”

Страттон призвал организации приоритезировать качество и прозрачность данных при внедрении искусственного интеллекта, чтобы извлечь пользу от этой технологии.