«ИИ приносит новые возможности и риски в область безопасности данных в здравоохранении»

AI brings new opportunities and risks to data security in healthcare.

Защита данных является важным аспектом правильного управления информационной технологией в организации здравоохранения. Данные в области здравоохранения остаются одной из основных целей для киберпреступников из-за уровня чувствительности их системных данных. Целевые наборы данных включают личную идентифицирующую информацию (ПИИ), финансовую информацию и медицинскую информацию.

Эти организации могут укрепить свои системы, внедрив периодические обновления и приложения в рамках своей стратегии DevSecOps. Скорость, надежность и безопасность – все это важные аспекты успешного подхода к DevSecOps. Инструменты и процессы, используемые для достижения этой цели, определяют ваш уровень успеха.

Тем не менее, несмотря на постоянное выпускание новых инструментов, недавние достижения в области искусственного интеллекта (ИИ) получают огромное внимание. Например, генеративный ИИ и большие языковые модели (БЯМ) помогают работникам различных отраслей ускорять процессы и снимать с себя ручные задачи, постоянно улучшая свои программы.

Разработчики обнаруживают, что ИИ-инструменты могут быстро создавать строки кода с помощью нескольких простых подсказок. Эта технология все еще очень молода, поэтому неясно, насколько успешными будут эти усилия, но это не останавливает многие команды разработчиков от использования ИИ-инструментов.

Компаниям в области здравоохранения необходимо строго контролировать свою информационно-техническую инфраструктуру. Так каким образом ИИ-инструменты соответствуют их требованиям?

Генеративные ИИ и БЯМ-инструменты могут значительно сократить время выхода на рынок, но каковы риски? Возможно ли достичь необходимого уровня контроля для команд DevSecOps в области здравоохранения?

Давайте рассмотрим, где сейчас находится эта технология, что это означает для команд информационной безопасности и как использовать эти мощные новые инструменты безопасно.

Как работают генеративный ИИ и БЯМ

И генеративный ИИ, и БЯМ-инструменты работают с помощью подсказок. Пользователь может задавать вопросы или запрашивать функцию, и инструмент генерирует ответ. Эти ответы дополняются дополнительными вопросами или подсказками для лучшего соответствия пользователю.

Однако есть разница между генеративным ИИ и БЯМ. Генеративный ИИ описывает любой тип искусственного интеллекта, который использует освоенное поведение для создания уникального контента. Он генерирует изображения и текст и охватывает большие языковые модели и другие типы ИИ.

С другой стороны, БЯМ – это высокоотточные версии генеративного ИИ. Они обучаются на большом объеме данных, производят ответы, похожие на человеческие, и более применимы к практикам DevOps. Пользователи могут вводить команды, запрашивая программу создать поток или триггер, например, и БЯМ может создавать код, соответствующий запросу пользователя.

Выбор правильной модели

Существует множество моделей ИИ для выбора. Модели с открытым исходным кодом, основанные на предыдущих версиях, обучаются новым материалам ежедневно. Более крупные и популярные модели, такие как Google Bard и Chat GPT от Open AI, являются наиболее известными версиями больших языковых моделей, используемых в настоящее время.

Эти инструменты обучаются на веб-сайтах, статьях и книгах. Информация, содержащаяся в этих исходных текстах, определяет ответы на запросы пользователей и влияет на то, как программа формулирует свои ответы.

Архитектура генеративных ИИ-инструментов построена с использованием нескольких слоев механизмов, чтобы помочь им понять отношения и зависимости между словами и высказываниями, что позволяет им вести более разговорный стиль.

Данные, подаваемые на вход модели ИИ, определяют ответы. Эти системы с течением времени совершенствуются, учась на взаимодействии с пользователями и новом материале. Дополнительное обучение и усовершенствование сделают эти инструменты более точными и надежными.

Обучение на основе данных от пользователей – отличный способ ускорить процесс обучения генеративных ИИ-инструментов и БЯМ. Однако этот подход может внести риски в области безопасности данных для команд DevSecOps. Но прежде чем мы рассмотрим риски, давайте посмотрим, что команды могут получить от внедрения генеративных ИИ-инструментов.

Что могут сделать генеративный ИИ и БЯМ для DevOps?

Набор доступных инструментов для разработчиков быстро становится более специализированным. Инструменты, такие как Einstein GPT, имеют потенциал изменить способ взгляда на разработку программного обеспечения и позволить организациям здравоохранения сократить время до выхода на рынок своих практик разработки программного обеспечения.

Вот несколько способов, которыми БЯМ-инструменты могут быть полезны для команд DevOps.

  1. Увеличение скорости выпуска

Скорость является важным преимуществом для команд DevOps. Возможность быстро внедрять надежное обновление или приложение делает организацию более гибкой и способной отвечать на возникающие проблемы. Организации здравоохранения, которые часто выпускают своевременные обновления, являются лидерами в отрасли и, скорее всего, достигают успеха.

БЯМ-инструменты помогают разработчикам писать большие фрагменты кода в несколько раз быстрее, чем при написании кода самостоятельно. Быстрая разработка приложений внутри цикла жизни приложения с помощью автоматического написания кода позволяет получить результат гораздо быстрее.

  1. Сокращение ручных процессов

Участники нашей команды – наш самый ценный актив, но человеческая ошибка неизбежна. Внедрение новых автоматизированных инструментов в конвейер DevOps значительно снижает количество ошибок и оптимизирует операции. Это верно как для инструментов LLM, так и для стандартных инструментов DevOps, таких как статический анализ кода и автоматизация CI/CD.

Возможность разработчиков вводить инструкции и позволить инструменту LLM выполнять большую часть кодирования значительно повышает производительность.

Ручные и повторяющиеся задачи приводят к ошибкам. Но когда разработчики могут передать большую часть написания кода LLM, им нужно только проверить код перед его внесением в проект.

  1. Предоставление справочного материала

Недопонимание приводит к потере времени. Продуктивность снижается, когда разработчики не могут найти ответ на вопрос или сталкиваются с запутанной ошибкой. Генеративный ИИ и инструменты LLM предоставляют контекст и ответы на конкретные вопросы в режиме реального времени.

Подробные объяснения для документации по программированию, идентификации ошибок и шаблонов использования доступны на расстоянии вытянутой руки ваших разработчиков.

Упрощение устранения неполадок позволяет команде вернуться к работе, вместо траты времени на устранение неполадок. Инструменты LLM предлагают исправления и стратегии отладки, чтобы соблюдать график обновлений.

Потенциальные риски безопасности данных, связанные с ИИ

Ответы на запросы LLM каждый раз разные. И хотя это может хорошо работать в разговорной среде, оно может вызывать проблемы для разработчиков, использующих эту технологию для написания кода. Плохой код приводит к уязвимостям безопасности данных. Для регулируемых отраслей, таких как здравоохранение, каждая потенциальная уязвимость должна быть исследована.

Все результаты, будь то ответ на вопрос о истории или строка кода, происходят из входных данных. Если исходные данные содержат ошибки, то и результаты, предоставляемые инструментом LLM, будут содержать ошибки.

Команды DevOps имеют нормы, которые они ожидают от своих разработчиков. Код, созданный инструментами LLM, не автоматически соответствует этим руководствам.

Производительность полученного кода может быть не идеальной. Это просто ответ на запрос. И хотя эти инструменты являются огромным прогрессом по сравнению с любым типом инструмента на основе запросов, которые мы видели в прошлом, они все еще не идеальны.

  1. Проблемы соответствия

Инструменты, такие как Einstein GPT, настолько новы, что появляется множество вопросов о том, как они повлияют на конвейер DevOps. Когда речь идет о соблюдении требований регулирования в области безопасности данных, отраслям, таким как здравоохранение, нужно получить ответы, прежде чем они смогут безопасно и уверенно использовать эти инструменты.

Например, что происходит с кодом, созданным инструментом LLM? Вы храните его в открытом репозитории? Если да, это вызовет серьезные проблемы с соответствием в отношении незащищенного исходного кода. Что произойдет, если этот код будет использоваться в рабочей среде организации здравоохранения?

Эти инструменты обучаются на общедоступной информации, полученной из GitHub для получения знаний в области разработки. Невозможно точно знать, что было вложено в эту подготовку, что означает, что могут присутствовать риски безопасности. Это означает, что любой, чьи запросы получают ответы с помощью небезопасного кода, будет сталкиваться с теми же рисками безопасности.

Регулируемым отраслям следует быть особенно осторожными с этими инструментами. Организации здравоохранения обрабатывают крайне чувствительную информацию. Уровень контроля, необходимый в регулируемых отраслях, просто невозможен на данный момент с инструментами LLM и генеративным ИИ.

  1. Проблемы внедрения

Инструменты LLM увеличивают скорость, с которой разработчики создают код. Они устраняют узкое место в стадии разработки обновления, но это узкое место переместится дальше по линии. Существует грань между быстрым и слишком быстрым развитием. Будет сложно сохранить контроль.

Окружающая инфраструктура автоматизированных инструментов DevOps может помочь смягчить напряжение при ускоренной разработке, но если системы еще не настроены, все это слишком много для внедрения сразу. Эти инструменты уже существуют, и разработчики используют их из-за того, насколько легко они позволяют упростить их работу. Руководство может попросить команды избегать использования этих инструментов, но будет сложно ограничить их использование.

Как предотвратить эти проблемы

Эти инструменты быстро набирают популярность. По мере того, как появляются новые инструменты LLM, командам DevOps не остается много времени на подготовку. Это означает, что организациям здравоохранения нужно начать готовиться уже сегодня, чтобы быть впереди потенциальных уязвимостей, связанных с этими инструментами.

Вот несколько вещей, которые могут помочь вам избежать потенциальных недостатков LLM и инструментов генеративного ИИ.

  1. Укрепите свой DevOps-пайплайн

Оптимизированный DevOps-пайплайн будет включать набор автоматизированных инструментов и открытую коммуникацию между отделами. Предоставление команде автоматизированных инструментов обеспечивает полное покрытие проекта и сокращение ручных процессов.

Эти факторы станут все более необходимыми по мере увеличения скорости написания кода с помощью инструментов LLM. Использование этой скорости крайне важно для обеспечения завершения всех проверок качества без создания проблем в дальнейшем.

Внедрение и совершенствование использования этих инструментов создает условия для успеха команд по мере широкого распространения инструментов LLM. Компании здравоохранения должны иметь возможность контролировать свой DevOps-пайплайн. Инфраструктура DevOps обеспечивает необходимую поддержку для достижения этого контроля.

  1. Сканируйте код с помощью статического анализа кода

Код, созданный инструментами LLM, ненадежен. Это означает, что вашей команде нужно потратить больше времени на окончательную обработку разработки, чтобы исправить любые ошибки перед объединением кода с основным репозиторием.

Статический анализ кода является неотъемлемой частью инструментария DevOps организации в области здравоохранения. Этот автоматизированный инструмент проверяет каждую строку кода по внутренним правилам, чтобы выявить все, что может привести к ошибкам и сбоям, если оставить без изменений.

И хотя может быть соблазн использовать общий инструмент статического анализа кода, они просто не обеспечивают достаточного покрытия для достижения постоянно высокого качества кода и соблюдения нормативных требований.

  1. Предлагайте непрерывное обучение

Человеческая ошибка является главной причиной потери данных. Ее можно снизить, полагаясь на автоматизированные инструменты, которые сокращают ручную работу, и предлагая обучение новым и существующим членам команды. Инструменты LLM мощные, но их польза соответствует рискам, которые зависят от того, как они используются.

Чтобы обеспечить успешную реализацию, общайтесь с командой о лучших практиках и ясно определите ожидания вашей организации. Эти лучшие практики включают такие моменты, как проверка правильной структуры каждого фрагмента кода, поступающего из инструмента LLM, резервное копирование критических данных системы и избегание использования несанкционированных инструментов. Компании здравоохранения, особенно, должны быть осторожными в том, как их команда взаимодействует с платформой, учитывая чувствительность данных, которыми они обладают.

Внимание начинается сегодня

Инструменты генеративного ИИ и LLM будут продолжать становиться все более распространенными. Использование этих инструментов может принести множество потенциальных преимуществ, но также существуют значительные риски. Компании здравоохранения должны быть осмотрительными при создании своего подхода к DevOps и без исключения тестировать каждую строку кода из инструмента LLM.

Кредит за изображение: Tima Miroshnichenko; Pexels; Спасибо!