Основатель Google Brain Искусственный интеллект используется фирмами для регулирования, основываясь на страхах об исчезновении.

Основатель Google Brain искусственный интеллект применяется компаниями для управления, опираясь на боязнь исчезновения

Эндрю Нг, сооснователь Google Brain и бывший главный ученый в Baidu, обвинил крупные технологические компании в распространении страха о том, что искусственный интеллект приведет к исчезновению человечества, как часть “кампании регуляторного захвата”, направленной на уничтожение конкуренции от открытого искусственного интеллекта.

В интервью The Australian Financial Review от 30 октября, профессор Нг заявил, что идея о том, что искусственный интеллект может истребить человечество, является “крайне глупой идеей”, используемой лоббистами для аргументации в пользу тяжелых регулирований, которые задушат инновации в индустрии искусственного интеллекта.

Нг назвал генерального директора OpenAI Сэма Альтмана, одного из его бывших студентов в Стэнфорде, за подписание письма в мае, предупреждающего, что “смягчение риска исчезновения от искусственного интеллекта должно стать глобальным приоритетом”. Профессор Нг предположил, что OpenAI имеет стимулы ограничить открытый искусственный интеллект, который может конкурировать с его собственными моделями.

“Определенно есть крупные технологические компании, которым не хотелось бы конкурировать с открытым искусственным интеллектом, поэтому они создают страх относительно исчезновения человечества из-за искусственного интеллекта.”

Признавая, что искусственный интеллект наносит вред, включая смерти от автономных автомобилей, профессор Нг утверждал, что избыточное регулирование может причинить больший вред, чем незаконтролированный искусственный интеллект. “Я не думаю, что полное отсутствие регулирования – это правильный ответ, но с учетом направления, в котором движется регулирование во многих странах, я думаю, нам будет лучше без регулирования, чем то, что мы получаем”, – сказал он.

Однако он считает, что требования о предоставлении информации со стороны технологических компаний могли бы предотвратить прошлые катастрофы, такие как кризис в социальных медиа в начале 2000-х годов. Большая прозрачность также поможет предотвратить будущие неудачи с искусственным интеллектом, сказал профессор Нг. Он предупредил относительно регулирований, накладывающих лицензионные обременения на индустрию искусственного интеллекта, сказав, что это “задавит инновации”.

Резкие замечания одного из ведущих экспертов по искусственному интеллекту в мире свидетельствуют о том, что крупные технологические фирмы используют страх исчезновения, чтобы сохранить свое господство за счет разработчиков открытого
искусственного интеллекта. Замечания профессора Нг придают вес подозрениям о том, что антиконкурентные интересы воспользовались движением по обеспечению безопасности искусственного интеллекта.

Зачетное изображение: Иллюстрация от Google DeepMind; Pexels; Спасибо!