Ослепленный большими технологическими компаниями, саммит по искусственному интеллекту в Великобритании игнорирует важные проблемы

Заслепленный корпорациями высоких технологий, саммит по искусственному интеллекту в Великобритании пренебрегает ключевыми проблемами

Мировые лидеры и технологические титаны в настоящее время собираются в южной Англии на саммите по безопасности искусственного интеллекта, но яркое мероприятие не впечатляет всех.

В ближайшие два дня около 100 важных лиц примут участие в мероприятии в историческом Блечли-Парке, поместье, находящемся примерно в 90 км на север от Лондона. Во время Второй мировой войны на этом месте находились кодировщики, взломавшие печально известное шифровальное устройство немецкой Германии “Энигма”. Через 80 лет британскому правительству хочется показать, что Великобритания по-прежнему является супердержавой в сфере технологий, но этот план вызывает тревогу.

У критиков есть разные опасения. Их беспокоит то, что организаторы саммита очарованы “граничным ИИ“, знаменитыми именами и отдаленными страхами, не обращая внимания на более насущные и включающие вопросы.

Позднее добавление в программу вызвало подозрения. В понедельник премьер-министр Риши Сунак объявил, что он будет “вести диалог” с Илоном Маском на тему X.

Маск придает еще большую значимость списку знаменитостей.

Среди приглашенных – несколько политических тяжеловесов, включая вице-президента США Камалу Харрис, председателя Европейской комиссии Урсулу фон дер Ляйен, Генерального секретаря ООН Антонио Гутерреша и вице-министра Китая Ву Чжаохуя.

Также присутствуют различные технологические титаны, такие как президент Microsoft Брэд Смит, глава OpenAI Сэм Альтман и глава Meta AI Ян Люкан. Но это мероприятие не для всех.

“Моим опасениям подвержено, что саммит будет сосредоточен на грандиозных угрозах.”

Большая часть технологического сектора считает, что за конференц-столом Сунака могут сидеть только гиганты отрасли и политические лидеры.

Доктор Гектор Зениль, основатель стартапа в сфере здравоохранения Oxford Immune Algorithmics, беспокоится, что мероприятие будет о behaltenherrrschafte власти ИИ и крупных технологических компаний. Он призывает Сунака вовлечь больше коммерческого и академического представительства.

“Если Samit по безопасности ИИ должен быть признан успешным – или по крайней мере находиться на правильном пути к созданию консенсуса по вопросам безопасности, регулирования и этики в области ИИ, то британское правительство должно стремиться создать равные возможности для всех сторон для обсуждения будущих случаев использования технологий”, – сказал Зениль.

“Саммит не может быть о behaltenherrrschaftедом корпораций с определенной повесткой дня и сюжетом вокруг своих коммерческих интересов, иначе действия на этой неделе будут рассматриваться как дорогое и вводящее в заблуждение маркетинговое мероприятие”.

https://twitter.com/RishiSunak/status/1719055211451306003?ref_src=twsrc%5Etfw

Такое мнение Зениля распространено во всем секторе. Среди инсайдеров отрасли, разделяющих его беспокойство, Виктор Ботев, технический директор и сооснователь стартапа Iris.ai из Осло.

Бывший исследователь в области ИИ в Университете Чалмерс и теперь руководитель бизнеса Ботев хочет получить более широкое представительство как в академическом сообществе, так и в отрасли на мероприятии.

“Необходимо, чтобы любая консультация о регулировании ИИ включала в себя не только точку зрения крупных компаний в области технологий”, – сказал он. – “Меньшие фирмы в области ИИ и разработчики Open Source часто являются пионерами новых инноваций, но их голоса по вопросам регулирования не слышны. Саммит упустил отличную возможность, включив в программу всего 100 гостей, в основном это лидеры мнений и крупные технологические компании”.

Такие же опасности высказывают и венчурные инвесторы. 

“В будущем нам также необходимо слышать больше голосов от стартапов. Принятие саммитом по безопасности ИИ только больших игроков в IT-отрасли и исключение многих из сообщества стартапов, занимающихся ИИ, является разочарованием”, – сказала Екатерина Альмаск, партнер OpenOcean, европейского фонда венчурного капитала.

“Важно, чтобы представителям отрасли было дано право голоса при формировании регуляций, которые прямо влияют на технологическое развитие”.

Апокалипсы граничного ИИ

Гости сияющего списка сопровождаются соответствующей драматической программой. Критики говорят, что это отвлекает от более насущных проблем.

Они отмечают, что программа будет исключительно сосредоточена на “граничных” системах ИИ – размытый термин для продвинутых универсальных моделей искусственного интеллекта. В недавнем докладе правительства термин “граничный ИИ” применялся практически исключительно к большим моделям языка (LLM), особенно к ChatGPT от OpenAI.

Зенил подозревает, что фокус был повлиян главными исполнительными директорами, которые инвестировали в эту область. Он хочет, чтобы правительство приняло более широкую точку зрения.

«Абсолютно критически важно, чтобы Великобритания имела последовательную стратегию в сфере искусственного интеллекта, охватывающую все аспекты технологии и разные модели. Прежде всего, это важно, потому что никакой подход не станет “серебряной пулей” для принятия искусственного интеллекта», – сказал он.

«Если Саммит по искусственному интеллекту в Блечли-парке и консультативный комитет по искусственному интеллекту будут доминировать индивидуумы с определенной научной или коммерческой направленностью в сфере искусственного интеллекта, то будет труднее разработать регулирующие рамки, которые отражают все потенциальные сценарии использования».

Доктор Гектор Зенил, основатель Oxford Immune Algorithmics
Зенил также работал в качестве старшего исследователя в финансируемом правительством Институте Алана Тьюринга. Кредит: Oxford Immune Algorithmics

Другой причиной недовольства является фокус саммита на “экстремальных” гипотетических угрозах и сценариях конца света. Сунак лично подчеркнул эти катастрофические возможности.

«В самых невероятных, но экстремальных случаях существует даже риск того, что человечество может полностью потерять контроль над искусственным интеллектом благодаря тому виду искусственного интеллекта, который иногда называют сверхразумом», – сказал он на прошлой неделе.

Такие апокалиптические перспективы, утверждают критики, сильно преувеличены. Некоторые обвиняют СМИ в раздувании опасности, в то время как другие утверждают, что технические боссы преувеличивают риски, чтобы скрыть реальные и текущие проблемы, которые они создают.

Их больше беспокоят осязаемые угрозы изменения климата, предубеждения в отношении маргинализированных групп и кибератаки. Они отмечают, например, что недавнее исследование показало, что искусственный интеллект Google в скором времени потребляет столько электроэнергии, сколько Ирландия.

Альмаске из венчурной фирмы OpenOcean беспокоится, что приоритеты саммита искажены.

«Похоже, что он будет сконцентрирован в основном на более крупных, долгосрочных рисках от искусственного интеллекта и гораздо меньше на том, что нужно делать сегодня для развития процветающей экосистемы искусственного интеллекта», – сказала она. «Это как стартап, который беспокоится о цене своего IPO, прежде чем привлечь финансирование».

Этими опасениями поделилась Натали Крамп, генеральный директор компании Profusion, которая ранее сотрудничала с правительством Великобритании. Она осторожна относительно фокуса на вымышленном будущем.

«Моим опасением является то, что саммит по безопасности искусственного интеллекта сосредоточится на ярких, сотрясающих заголовких угрозах в ущерб более мирным проблемам, которые имеют способность причинить большой вред прямо сейчас», – сказала Крамп.

Портрет Натали Крамп, генерального директора компании Profusion
Натали Крамп, генеральный директор компании Profusion.

Ожидания саммита усилили разногласия. Перед мероприятием Сунак раскрыл основу своего плана – создание нового института по безопасности искусственного интеллекта, являющегося «первым в мире».

Доктор Асресс Гикей, старший преподаватель по искусственному интеллекту в Лондонском университете Бранеля, остался недоволен этим объявлением. Гикей относится с пренебрежением к цели института вызывать международные соглашения. Она подозревает, что у Сунака есть скрытые мотивы.

«Приматер кажется более заблокированным на создании политических заявлений по нереалистичным и недостижимым повесткам дня, чем на решении более срочных и достижимых проблем, таких как внутренние инвестиции в искусственный интеллект и разработка прочной политики и правового каркаса для ответственного искусственного интеллекта на национальном уровне», – сказала она.

Идти на риск

Помимо скептицизма, существует также оптимизм относительно потенциала саммита по искусственному интеллекту. Известные участники и внимание международных СМИ свидетельствуют о том, что Великобритания может стать ключевым игроком во всемирных разработках.

Процветающий сектор искусственного интеллекта в стране добавляет саммиту авторитет, а его прогрессивный подход к регулированию предоставляет возможность отличиться от государственного управления Европейского союза. Уникальное международное положение Великобритании также может стать мостом между США, ЕС и Китаем.

Эмад Мостак, генеральный директор Stability AI, который разрабатывает модель Stable Diffusion для текста и изображений, является одним из известных сторонников саммита.

«У Великобритании есть историческая возможность стать сверхдержавой в области искусственного интеллекта и обеспечить, чтобы искусственный интеллект принес пользу всем, а не только крупным технологическим компаниям», – сказал он.

Ботев, сооснователь Iris.ai, более осторожно оптимистичен. Он находится в хорошем настроении относительно потенциала саммита, но беспокоится о том, что правительство может принять поспешное решение во имя главной новостной истории.

“С глобальным AI-сообществом наблюдающим, Великобритания должна сопротивляться этому порыву”, – сказал он. “Саммит – это возможность для Великобритании наметить глобальное направление по управлению ИИ, обеспечивая прогресс без ущерба для безопасности. С осторожностью и мудростью Великобритания может разработать предусмотрительные регулирования, которые поощряют инновации, сохраняя доверие”.