80% предприятий к 2026 году внедрят искусственный интеллект, согласно отчету Gartner.
К 2026 году искусственный интеллект будет внедрен в 80% предприятий, в соответствии с отчетом Gartner.
![Концепция времени](https://tech.miximages.com/www.zdnet.com/a/img/resize/1b52d5db335e5d2edc0dfcd22c81fd8f951df3a0/2023/10/12/2f956f7c-d3d6-4fb6-9b60-5afbcf127921/gettyimages-1303886185.jpg?auto=webp&width=1280)
С момента выхода ChatGPT почти год назад, генеративный ИИ находится в росте, с компаниями, которые ежедневно разрабатывают или принимают в использование ИИ-модели. Новый отчет компании Gartner показывает, что рост будет продолжаться и в следующие годы.
Исследовательская фирма прогнозирует, что к 2026 году 80% предприятий будут использовать генеративные API (интерфейсы прикладного программирования) ИИ или модели или разработают свои собственные.
Также: Жертвы вымогательства продолжают платить, готовясь к усиленным атакам с использованием ИИ
Это означает, что за только три года количество предприятий, принимающих или создающих генеративные ИИ-модели, вырастет в шестнадцать раз по сравнению с данными Gartner, когда менее 5% предприятий сделали это в 2023 году.
“Генеративный ИИ стал одной из основных задач для руководства предприятий и вызвал огромное количество инноваций в новых инструментах, выходящих за рамки основных моделей,” – сказал Арун Чандрасекаран, выдающийся аналитик вице-президент компании Gartner.
- Новая техника заставляет искусственный интеллект просыпаться из гал...
- Теперь я позволяю искусственному интеллекту мыть свои полы, и я не ...
- Получите Amazon Fire TV Stick 4K по самой низкой цене на данный мом...
Исследовательская фирма описала некоторые инновации, которые, по их прогнозам, окажут огромное влияние на организации в следующие десять лет, в том числе генеративные приложения ИИ, основные модели и управление доверием, рисками и безопасностью (AI TRiSM).
Генеративные приложения ИИ просто относятся к приложениям, которые используют генеративный ИИ для выполнения определенной задачи. К примеру, ChatGPT, использующий ИИ для синтеза текстовых запросов и предоставления ответов.
Организации могут использовать эти приложения для упрощения внутренней работы или предложения клиентам услуг, улучшающих их обслуживание и опыт клиента.
“Наиболее распространенным примером использования встроенных функций GenAI сегодня является преобразование текста в X, что дает рабочим доступ к тому, что раньше было специализированной задачей, с помощью естественного языка,” – сказал Чандрасекаран в отчете.
Также: Как Adobe использует генеративный ИИ для модернизации клиентского опыта
Примером является растущее количество консалтинговых фирм, которые либо принимают в использование, либо разрабатывают собственные ИИ-модели, чтобы облегчить клиентам поиск необходимых ресурсов в огромной базе данных фирмы.
Одной из сложностей с этими приложениями является их склонность к иллюзиям и неточным ответам, что подрывает их надежность.
Основные модели относятся к моделям машинного обучения, которые лежат в основе генеративных приложений ИИ, например, то, что GPT является для ChatGPT.
Эти основные модели обучаются на больших объемах данных и используются для реализации различных задач.
Gartner поместил основные модели в фазу Максимальных Ожиданий на Цикле Жизни Технологий, предсказывая, что к 2027 году они станут основой для 60% случаев обработки естественного языка.
“Руководители технологий должны начинать с моделей с высокой точностью в рейтингах производительности, моделей с хорошей поддержкой экосистемы и должны обладать достаточным уровнем безопасности и конфиденциальности для предприятий,” – сказал Чандрасекаран.
Наконец, AI TRiSM означает набор решений, которые могут решить проблемы, связанные с генеративными моделями искусственного интеллекта и гарантировать их успешное внедрение.
Некоторые риски, которые подстерегают генеративные модели искусственного интеллекта, это ненадежность, дезинформация, предубежденность, нарушение конфиденциальности и справедливости.
Если эти проблемы не будут должным образом устранены, они могут быть особенно опасными для организаций, так как они рискуют утечкой конфиденциальных данных и распространением дезинформации внутри организации.
“Организации, которые не последовательно управляют рисками искусственного интеллекта, в экспоненциальной степени склонны к негативным последствиям, таким как неудачи проектов и нарушения”, – сказал Чандрашекаран.
AI TRiSM поэтому является важным для организаций с целью минимизации этих рисков и защиты членов их организации.