Индивидуальные тестовые показатели и открытость являются ключевыми при развитии генеративных моделей искусственного интеллекта.

Индивидуальные тестовые показатели и открытость - ключевые при развитии генеративных моделей искусственного интеллекта.

Поскольку генеративные модели искусственного интеллекта (ИИ) продолжают развиваться, сотрудничество отраслей и настраиваемые тестовые показатели будут необходимы для установления подходящих решений для бизнеса организаций.

Это усилие будет необходимо, поскольку предприятия ищут большие языковые модели (LLM), обученные на данных, специфичных для их отраслей, а также для обеспечения того, чтобы модели ИИ были обучены данным и принципам, основанным на их собственных уникальных ценностях, согласно Онг Ченг Хуи, заместителю исполнительного директора группы по бизнесу и технологиям в Информационно-коммуникационном ведомстве по развитию медиа (IMDA).

Также: 40% работников должны переквалифицироваться в следующие три года из-за ИИ, говорит исследование IBM

Она поставила вопрос, действительно ли одна большая базовая модель является путем вперед или есть необходимость в более специализированных моделях, указав на усилия Bloomberg по созданию собственной крупномасштабной генеративной модели ИИ, BloombergGPT, которая была специально обучена на финансовых данных.

Пока необходимая экспертиза, данные и вычислительные ресурсы “не заблокированы”, отрасль может продолжать продвигать развитие, сказала Онг, выступая перед СМИ на полях Red Hat Summit на этой неделе.

Программный поставщик является членом AI Verify Foundation Сингапура, которая стремится использовать сообщество с открытым исходным кодом для разработки наборов инструментов для проверки, руководящих ответственным и этическим использованием ИИ. Запущенная в июне с шестью другими премиум-членами, помимо Red Hat, включая Google и Microsoft, инициатива возглавляется IMDA и на данный момент имеет более 60 обычных членов.

Также: Лучшие чат-боты на ИИ сейчас

Сингапур имеет самую высокую адаптацию технологий и принципов с открытым исходным кодом в регионе Азиатско-Тихоокеанского региона, согласно Гуне Челлаппану, генеральному менеджеру Red Hat в Сингапуре. Ссылаясь на результаты исследования, которое провел поставщик, Челлаппан отметил, что 72% организаций Сингапура заявили, что они достигли “высокого или очень высокого прогресса” в использовании открытого исходного кода.

Оператор порта PSA Singapore и UOB являются клиентами Red Hat в Сингапуре, причем первый развертывает приложения с открытым исходным кодом для автоматизации своих операций. Местный банк UOB использует Red Hat OpenShift для поддержки своего облачного развития.

Выбор открытого исходного пути является ключевым, потому что прозрачность важна для распространения сообщения об этике ИИ, сказала Онг, отметив, что было бы иронично просить общественность доверять наборам инструментов фонда, если детали о них не были бы свободно доступны.

Она также черпает вдохновение из других областей, в частности из кибербезопасности, где инструменты часто разрабатываются в среде с открытым исходным кодом, и где сообщество непрерывно вносит обновления для улучшения этих приложений.

“Мы хотим, чтобы AI Verify был таким же”, – сказала она, добавив, что если фонд разрабатывал наборы инструментов в изоляции, он не сможет следить за быстро изменяющимися разработками отрасли.

Также: Как этот простой подход к настройке ChatGPT может помочь улучшить создаваемый ИИ-контент

Это открытое сотрудничество также поможет найти наилучшие и наиболее эффективные решения, отметила она. Автомобильная промышленность прошла аналогичный цикл, когда ремни безопасности были разработаны, протестированы и переработаны, чтобы определить тот, который мог лучше всего защитить водителей.

Та же самая подход должен применяться и к генеративному ИИ, где модели и приложения должны непрерывно тестироваться и настраиваться, чтобы обеспечить их безопасное развертывание в рамках ограничений организации.

Однако решения крупных игроков, таких как OpenAI, не раскрывать технические детали своих LLM, волнуют некоторые секторы отрасли.

Команда ученых под руководством Итальянского университета Оксфорда Эмануэле Ла Мальфы в прошлом месяце опубликовала научную статью, выявляющую проблемы, которые могут возникнуть из-за отсутствия информации о крупных языковых моделях ИИ в четырех областях: доступность, воспроизводимость, надежность и доверие (AART).

Ученые отмечают, что “коммерческое давление” заставляет рыночных игроков предоставлять свои модели ИИ в качестве услуги для клиентов, обычно через API. Однако информация о архитектуре моделей, их реализации, обучающих данных или процессов обучения не предоставляется и не становится доступной для проверки.

Также: Как использовать ChatGPT для создания диаграмм и таблиц

Эти ограничения доступа, вместе с тем, что LLM-модели часто являются «черными ящиками», противоречат потребности общественности и научного сообщества в лучшем понимании, доверии и контроле этих моделей, отметила команда Ла Мальфы. «Это вызывает значительную проблему в основе этой области: самые мощные и рискованные модели также являются самыми сложными для анализа», отмечают они.

Ранее OpenAI защищала свое решение не предоставлять подробности о своей модели GPT-4, указывая на конкурентную среду и проблемы безопасности, связанные с публикацией такой информации о масштабных моделях, включая их архитектуру, метод обучения и создание набора данных.

На вопрос о том, как организации должны приступать к внедрению генеративного ИИ, Онг отметила, что в области основной модели возникнут два лагеря: один из них включает несколько собственных больших языковых ИИ-моделей, включая ChatGPT-4 от OpenAI, а другой предпочтет создавать свои модели на основе открытой архитектуры, такой как Llama-v2 от Meta.

Она предложила, что организации, которым важна прозрачность, могут выбрать альтернативы с открытым исходным кодом.

Необходимы настраиваемые тестовые показатели

В то же время компании все чаще будут строить свое решение на основе основной модели, чтобы развернуть генеративные приложения ИИ, которые лучше соответствуют их специфическим требованиям в области образования и финансовых услуг.

Также: Каждый четвертый работник боится считаться «ленивым», если он использует ИИ-инструменты

Онг отметила, что на этом уровне приложения также потребуется некоторая прозрачность и доверие.

Именно здесь AI Verify, с помощью своих инструментов для тестирования, надеется помочь компаниям выбрать правильное направление. Среди организаций, работающих на разных рынках, в разных регионах и отраслях, главной их заботой будет не то, является ли модель ИИ открытым исходным кодом, а то, соответствуют ли их генеративные приложения ИИ их принципам этики и безопасности, пояснила она.

Она отметила, что многие бизнесы, а также правительства, в настоящее время тестируют и оценивают генеративные инструменты ИИ для использования как взаимодействующими с потребителем, так и не взаимодействующими с потребителем. Часто они начинают с последних для минимизации потенциальных рисков и влияния на клиентов, и расширяют свои пилотные проекты, включая взаимодействующие с потребителем приложения, когда достигают определенного уровня комфорта.

Она добавила, что организации в высокорегулируемых секторах, таких как финансовые услуги, будут проявлять еще больше осторожности при создании взаимодействующих с потребителем приложений.

Кроме того, страны и общества придерживаются различных ценностей и культур. Правительства будут стремиться обеспечить, чтобы модели ИИ были построены на обучающих данных и принципах, основанных на уникальном сочетании их населения.

Также: Почему генеративный ИИ так популярен: Все, что вам нужно знать

Например, демография Сингапура многонациональна, многорелигиозна и многоязычна. Расовая гармония является уникальной для его общества, как и местные структуры и политика, такие как национальная система социального обеспечения, сказала Онг.

Отметив, что существующие сегодня LLM-модели не всегда одинаково хорошо справляются с культурными вопросами, она подумала, может ли это дефицит свидетельствовать о необходимости создания собственной LLM Сингапура и, если да, есть ли у страны с небольшим населением достаточное количество данных для обучения модели ИИ.

Учитывая, что рынок имеет игроков и в других регионах, в частности в Китае, которые также выпускают свои собственные LLM, обученные на местных данных, ENBLE задал вопрос о возможности объединения основных моделей из разных регионов, чтобы они лучше соответствовали населению Сингапура.

Онг считает, что есть возможность для обучения различных LLM друг от друга, что является потенциальным применением, которое может быть исследовано в научной области. Однако здесь необходимо обеспечить защиту данных и конфиденциальных данных, сказала она.

Сингапур в настоящее время оценивает возможность таких вариантов, включая возможность создания собственной LLM, по словам Онг.

Также: Взрывный рост ИИ усилит социальные проблемы, если мы не действуем сейчас, говорит этик ИИ

Требования к специализированным моделям генеративного ИИ еще больше подчеркивают важность настраиваемых инструментов и показателей, на основе которых тестируются и оцениваются модели ИИ, сказала она.

Эти показатели будут необходимы для тестирования генеративных приложений ИИ, включая сторонние и отраслевые инструменты, на соответствие принципам ИИ организации или страны и для обеспечения ответственного и этичного развертывания.