Опасности использования общедоступных инструментов генеративного искусства на рабочем месте.

Несколько сотрудников внесло конфиденциальную информацию, такую как данные о клиентах, в общедоступные системы генеративного искусственного интеллекта.

“`html

Сотрудники рискуют вводить чувствительные данные в инструменты искусственного интеллекта

Замок с вращающимися колесами внутри

Представьте, что вы стоите на краю обрыва, держа важный документ. Ветер воет, угрожая вырвать его из ваших рук. Вы знаете, что отпустить его может повлечь катастрофические последствия, но по какой-то причине все равно решаете бросить его в вихревой водоворот внизу. Именно так чувствуют себя некоторые сотрудники, когда добровольно вводят чувствительные данные в общедоступные генеративные инструменты искусственного интеллекта (ИИ).

Информация о клиентах, объемы продаж, финансовые данные, а также персонально идентифицируемая информация, такая как адреса электронной почты и номера телефонов, находятся под угрозой. Последнее исследование, проведенное компанией Veritas Technologies, показало, что 39% сотрудников осознают потенциал утечки чувствительных данных при использовании общедоступных генеративных ИИ-инструментов, в то время как 38% опасаются, что эти инструменты могут выдавать неверную, неточную или бесполезную информацию. Кроме того, 37% респондентов указали на риски соблюдения нормативных требований, а 19% считали, что технология может негативно повлиять на производительность.

🔥 Совет эксперта: Хотите узнать, как использовать ИИ ответственно? Ознакомьтесь с этой статьей для ценных идей!

Несмотря на эти опасения, удивительные 57% сотрудников признали, что используют общедоступные генеративные ИИ-инструменты в офисе хотя бы раз в неделю, при этом 22,3% даже полагаются на эту технологию ежедневно. Тем не менее, не все идут на этот риск. Примерно 28% людей заявили, что вообще не используют эти инструменты.

Зачем сотрудники добровольно подвергают чувствительные данные риску? Исследование выявило, что 42% респондентов используют генеративные ИИ-инструменты для исследований и анализа, а 41% — для написания электронных писем и записок, а 40% надеются улучшить свои навыки письменной речи.

А какие данные сотрудники считают ценными для бизнеса при вводе их в эти общедоступные генеративные ИИ-инструменты? Результаты показали, что 30% сотрудников указали на информацию о клиентах, такую как ссылки, банковские реквизиты и адреса, а 29% назвали объемы продаж. Кроме того, 28% подчеркнули финансовую информацию, а 25% указали на персонально идентифицируемую информацию. Также выяснилось, что 22% работников обращались к конфиденциальным данным отдела кадров, а 17% упомянули конфиденциальную информацию компании. Удивительно, что 27% респондентов не верили, что ввод любой чувствительной информации в эти инструменты может принести пользу бизнесу.

Еще более тревожно то, что 31% сотрудников признали, что вводили чувствительные данные в эти инструменты, причем 5% были неуверены, сделали ли это. С позитивной стороны, 64% респондентов заявили, что не вводили никакие чувствительные данные в общедоступные генеративные ИИ-инструменты.

🔥 Совет эксперта: Рассматриваете карьеру в области ИИ? Посмотрите эти 5 шагов для успешного перехода в своей карьере!

Но это не только тучи и дождь. В использовании генеративного ИИ на рабочем месте есть и свои преимущества. Отвечая на вопрос о преимуществах для своей организации, 48% респондентов выделили более быстрый доступ к информации. Сорок процентов упомянули повышение производительности, 39% считали, что генеративный ИИ может заменить рутинные задачи, а 34% считали, что это помогает генерировать новые идеи.

Интересно, что 53% сотрудников считали несправедливым, что их коллеги имеют доступ к и используют генеративные ИИ-инструменты, видя это как преимущество. Фактически, 40% полагали, что те, кто используют эти инструменты, должны обязательно обучать других в своей команде или отделе. Некоторые сотрудники даже говорили, что коллег, использующих эти инструменты, следует докладывать их руководителю или столкнуться с дисциплинарными мерами.

Удивительно, что только 36% респондентов сообщили о наличии официальных руководящих указаний и политики по использованию общедоступных генеративных ИИ-инструментов на работе. Этот недостаток ясных политик оставляет сотрудников подверженными потенциальным рискам. Однако значительное большинство (90%) респондентов согласились с тем, что важно иметь руководящие принципы и политику по использованию новых технологий на рабочем месте. Шестьдесят восемь процентов полагали, что каждый должен знать “правильный способ” использования генеративного ИИ.

Риски будут нарастать по мере скачка использования генеративного ИИ

Связанные с генеративным ИИ риски безопасности могут нарастать по мере увеличения его применения. Согласно индексу угроз хакерства IBM X-Force 2024, ключевые платформы могут столкнуться с масштабными атаками, когда одна конкретная генеративная ИИ-технология приближается к 50% доли рынка или когда рынок сокращается до трех технологий. Это означает, что по мере распространения генеративного ИИ киберпреступники воспользуются возможностью эксплуатировать уязвимости и проводить целенаправленные атаки.

“““html

🌟 Глубокий Анализ: Чтобы получить более глубокое понимание рисков и будущих разработок генеративного ИИ, прочитайте этот всесторонний отчет.

Для организаций крайне важно обеспечить безопасность своих моделей ИИ до того, как злоумышленники нарастят свою активность. Киберпреступники уже начали нацеливаться на технологии ИИ, с более чем 800 000 постами об ИИ и GPT (Generative Pre-trained Transformers) на форумах темного веба в 2023 году. Поскольку противники продолжают оптимизировать свои атаки, угрозы, связанные с идентификацией, будут расти.

IBM подчеркнула необходимость комплексного подхода к безопасности в эпоху генеративного ИИ. Предприятия должны понимать, что обеспечение безопасности своих моделей ИИ выходит за рамки внедрения новых тактик для защиты их базовой инфраструктуры. Решая основы безопасности, такие как атаки на основе идентификации и эксплуатация действующих учетных записей, компании могут смягчить риски, связанные с генеративным ИИ.

🎥 Видео Дополнение: Для понимания настойчивости в обеспечении безопасности моделей ИИ смотрите это просветительное видео, которое затрагивает важность безопасности ИИ.

В 2023 году произошло увеличение на 266% атак, вовлекающих вредоносное ПО, разработанное для кражи лично-идентифицируемой информации. Европейские организации оказались самыми целевыми, составляя 32% инцидентов в масштабах мира. Однако регионы Азиатско-Тихоокеанского региона и Северной Америки также понесли значительные потери. Удивительные 70% атак были нацелены на организации критической инфраструктуры, и 85% из них могли бы быть смягчены путем обновления, многофакторной аутентификации или применения принципов минимальных полномочий.

🌍 Глобальное Воздействие: Чтобы исследовать, как различные регионы становились объектами кибератак, изучите эти информативные статистические данные.

Будучи экспертом в этой области, важно быть в курсе последних тенденций и новостей. Вот дополнительные ресурсы для дальнейшего чтения:

  1. Walmart Запускает Поиск Генеративного ИИ и Функции Пополнения ИИ на CES
  2. Критический 2024 АИ Политика для Безопасости Рабочих Рисков
  3. Гонка за Генеративным Видео в Китае Набирает Обороты
  4. Microsoft Расширяет Усилия Локализации Данных в ЕС
  5. Anecdotes Получает $25М для Расширения Своего Бизнеса по Управлению Рисками и Соблюдению

Так что, в следующий раз, когда вы соблазнитесь бросить чувствительные данные на алтарь общедоступных инструментов генеративного ИИ, помните об опасностях и последствиях. Поделитесь этой статьей со своими коллегами, чтобы повысить осведомленность о важности ответственного и безопасного использования новейших технологий. Вместе мы можем защитить наши данные и навигировать по миру ИИ с уверенностью.

Давайте Соединимся: Каковы ваши мысли о рисках и выгодах общедоступных инструментов генеративного ИИ на рабочем месте? Поделитесь своими опытом в комментариях ниже и присоединяйтесь к обсуждению на наших платформах социальных сетей!


Источники

  1. изображение: Ссылка
  2. Walmart Запускает Поиск Генеративного ИИ и Функции Пополнения ИИ на CES: Ссылка
  3. Критический 2024 АИ Политика для Безопасости Рабочих Рисков: Ссылка
  4. Гонка за Генеративным Видео в Китае Набирает Обороты: Ссылка
  5. Microsoft Расширяет Усилия Локализации Данных в ЕС: Ссылка
  6. Anecdotes Получает $25М для Расширения Своего Бизнеса по Управлению Рисками и Соблюдению: Ссылка
  7. Пять способов использовать ИИ ответственно: Ссылка
  8. Лучшие чатботы с ИИ: Ссылка
  9. Хотите работать в области ИИ? Как перестроить свою карьеру в 5 шагов: Ссылка
  10. Индекс Угроз IBM X-Force Intelligence Index 2024: Ссылка
  11. Как ренессансные технологи связывают точки между ИИ и бизнесом: Ссылка
  12. Хотите работать в области ИИ? Как техническим специалистам выжить и процветать на работе во времена ИИ: Ссылка
  13. Как техническим специалистам пережить и преуспеть на работе во времена ИИ: Ссылка
  14. Хотите работать в области ИИ? Как техническим специалистам выжить и процветать на работе во времена ИИ: Ссылка
  15. Как ренессансные технологи связывают точки между ИИ и бизнесом: Ссылка
  16. Китайские хакеры Volt Typhoon, поддерживаемые Китаем, скрывались в критической инфраструктуре США по крайней мере пять лет: Ссылка

“`