Ещё один крупный университет поддерживает использование генеративного искусственного интеллекта с серьезными ограничениями.

Ещё один университет поддерживает использование генеративного искусственного интеллекта с ограничениями.

В то время как некоторые школы ограничивают использование генеративного искусственного интеллекта (ИИ), Гонконгский университет (HKU) полностью вкладывается в него и призывает своих преподавателей и студентов принять эту технологию.

Гонконгский университет поддерживает это, предоставляя преподавателям и студентам бесплатный доступ к различным инструментам генеративного ИИ, включая Microsoft Azure OpenAI, ChatGPT и DALL-E от OpenAI.

Также: Как достичь гиперперсонализации с помощью платформ генеративного ИИ

Гонконгский университет заявил, что в течение последних месяцев он предоставлял бесплатный доступ к ChatGPT, после того как в июне была введена политика использования генеративного ИИ. Теперь в новом семестре, начинающемся в сентябре, он расширит выбор инструментов.

HKU выступает за пять ключевых областей грамотности, включающих устную, письменную, визуальную, цифровую коммуникацию и, недавно, генеративный ИИ.

Помимо бесплатного доступа для обучения, HKU также предоставит другие ресурсы, включая обучение и онлайн-курсы, чтобы обеспечить эффективное и ответственное использование инструментов ИИ.

В рамках своей политики генеративного ИИ университет призывает преподавателей использовать генеративный ИИ для оптимизации обучения студентов, таких как развитие аналитического мышления, создание “творческих и увлекательных” заданий и контента, индивидуально настроенных для каждого студента.

Также: 4 способа распознать гиперболу генеративного ИИ

Преподаватели также могут использовать генеративный ИИ для оценки работ студентов, создавая механизмы для “аутентичной и справедливой” оценки. “Цель – обеспечить ответственное и эффективное использование инструментов генеративного ИИ и поддерживать высочайший уровень академической честности”, – заявил HKU.

Для снижения рисков применения этой технологии в оценке работ отмечается, что преподаватели должны четко определить ожидания и предоставить руководство по правильному объявлению и ссылке на использование инструментов генеративного ИИ в курсах и заданиях.

Студенты также будут мотивированы использовать такие инструменты в своей работе с помощью альтернативных методов оценки, таких как экзамены без использования устройств и взаимные оценки студентов.

Университет заявил, что будет проводить периодические оценки с участием преподавателей, студентов и администраторов IT, чтобы обеспечить эффективную интеграцию генеративного ИИ и решить любые новые вызовы.

Также: Генеративный ИИ и четвертый “почему”: Настройка доверия с клиентом

“HKU поддерживает генеративный ИИ и признает грамотность в области ИИ неотъемлемой частью преподавания и обучения”, – сказал Иэн Холлидей, руководитель рабочей группы, разработавшей политику генеративного ИИ. “Наша цель – позволить нашим преподавателям и студентам стать не только грамотными в области ИИ, но и лидерами в эксплуатации огромного потенциала генеративного ИИ в интересах человечества”.

Холлидей теперь возглавляет совет по внедрению генеративного ИИ в преподавательскую и учебную деятельность университета.

HKU сообщил, что направляет средства в общей сумме 15,7 миллиона гонконгских долларов ($2,01 миллиона) из Фонда для Инновационных Технологий в Образовании Университетского Комитета Грантов в свои инициативы генеративного ИИ. Он также намерен сотрудничать с университетами из других регионов и рынков для дальнейшего исследования потенциала генеративного ИИ.

В январе этого года школы Нью-Йорка заблокировали доступ студентов и преподавателей к ChatGPT на своих устройствах и сетях из-за “негативного влияния” на обучение и опасений относительно точности контента.

Также: Доклад о состоянии ИТ: 9 из 10 руководителей ИТ считают, что генеративный ИИ вскоре станет популярным

В феврале Сингапур заявил, что поддерживает использование генеративного ИИ в школах, но призывает студентов не полагаться на такие инструменты и понимать их ограничения.

Высокое доверие к генеративному ИИ, но требуется больше работы

В глобальном исследовании, опубликованном на этой неделе, 66% руководителей также выразили опасения относительно возможности искажения информации и дезинформации с помощью генеративного ИИ. Однако почти 80% респондентов высоко или значительно доверяли тому, что генеративный ИИ может быть использован в будущих продуктах и операциях их организации, согласно опросу IDC, заказанному компанией Teradata. В исследовании приняли участие 900 высших руководителей из Азии, Европы и США.

Около 86% опрошенных сказали, что необходимо больше управления для обеспечения качества и надежности выводов генеративного искусственного интеллекта. И хотя 56% заявили, что они испытывают высокое или значительное давление внедрить генеративный искусственный интеллект в своей организации в ближайшие шесть месяцев или год, 42% сказали, что у них есть необходимые навыки для реализации таких технологий в тот же период.

Еще 30% заявили, что они готовы использовать генеративный искусственный интеллект уже сегодня, выяснилось в исследовании.

Также: Вот как генеративный искусственный интеллект изменит гиг-экономику к лучшему

Отчет Capgemini Research Institute, опубликованный в прошлом месяце, отметил, что потребители восторженно относятся к использованию генеративного искусственного интеллекта в своей повседневной жизни. Только половина, 51%, заявила, что они уже изучали такие инструменты, при этом 53% используют генеративный искусственный интеллект для помощи в финансовом планировании, отмечает Capgemini, которая опиралась на результаты опроса 10 000 потребителей в 13 рынках, включая Сингапур, Австралию, Японию, Германию, Францию, Швецию, США и Великобританию.

Приблизительно 67% респондентов считают, что они могут получить выгоду от использования генеративного искусственного интеллекта для медицинской диагностики и консультаций, в том числе 63% поддерживают идею использования этой технологии для более точного и эффективного поиска лекарств.

Однако отчет отметил низкое осведомленность о потенциальных рисках. Всего 27% были обеспокоены использованием генеративного искусственного интеллекта, 49% не обращали внимания на его использование в создании фейковых новостей. Приблизительно 34% беспокоились о его использовании в фишинговых атаках, а 33% были обеспокоены авторскими правами.