Великобритания перечисляет самые страшные сценарии искусственного интеллекта перед своим крупным саммитом технологических гигантов

Великобритания представляет ужасающие сценарии искусственного интеллекта перед крупным саммитом технологических гигантов

Смертоносное биологическое оружие, автоматизированные кибератаки, мощные искусственные интеллектуальные модели, выходящие из-под контроля человека. Это только некоторые из потенциальных угроз, представляемых искусственным интеллектом, согласно новому отчету британского правительства. Он был опубликован для того, чтобы помочь определить повестку дня Международного саммита по безопасности искусственного интеллекта, который пройдет на следующей неделе и будет организован Великобританией.

Отчет был составлен с участием ведущих компаний по искусственному интеллекту, таких как DeepMind, и нескольких британских правительственных департаментов, включая спецслужбы.

Джо Уайт, технологический представитель Великобритании в США, говорит, что саммит предоставляет возможность объединить страны и ведущие компании по искусственному интеллекту для более глубокого понимания рисков, которые представляет технология. Управление потенциальными недостатками алгоритмов потребует классического органичного сотрудничества, говорит Уайт, который помогал планировать саммит. «Это не задачи от машины к человеку», – говорит Уайт. «Это задачи от человека к человеку».

Пре-мьер-министр Великобритании Риши Сунак завтра выступит с речью о том, что, хотя искусственный интеллект открывает возможности для прогресса человечества, важно честно говорить о новых рисках, которые он создает для будущих поколений.

Саммит по безопасности искусственного интеллекта Великобритании состоится 1 и 2 ноября и, в основном, будет сосредоточен на способах, которыми люди могут злоупотреблять и терять контроль над продвинутыми формами искусственного интеллекта. Некоторые эксперты и руководители по искусственному интеллекту в Великобритании критиковали акцент мероприятия, говоря, что правительство должно приоритезировать более ближнесрочные проблемы, такие как помощь Великобритании в конкуренции с мировыми лидерами по искусственному интеллекту, такими как США и Китай. Некоторые эксперты по искусственному интеллекту предупреждают, что недавнее увеличение обсуждения отдаленных сценариев искусственного интеллекта, включая возможность человеческого исчезновения, может отвлекать регуляторов и общественность от более актуальных проблем, таких как предвзятые алгоритмы или укрепление уже доминирующих компаний с помощью искусственного интеллекта.

Всеобщий отчет, опубликованный Великобританией сегодня, рассматривает национально-безопасностные последствия мощных языковых моделей, технологии искусственного интеллекта, стоящей за ChatGPT, например. Уайт говорит, что британские спецслужбы сотрудничают с экспертной группой по искусственному интеллекту, командой Frontier AI, для изучения сценариев, таких как то, что может произойти, если злоумышленники объединят мощную языковую модель с секретными правительственными документами. Один из мрачных сценариев, обсуждаемых в отчете, предлагает, что мощная языковая модель, ускоряющая научные открытия, также может усилить проекты, направленные на создание биологического оружия.

В июле генеральный директор стартапа по искусственному интеллекту Anthropic Дарио Амодей заявил сенаторам США, что в течение следующих двух-трех лет возможно появление языковой модели, предлагающей способы проведения массовых биологических атак. Но Уайт говорит, что отчет является документом высокого уровня, который не предназначен «служить списком всех плохих вещей, которые можно сделать».

Отчет Великобритании также рассматривает возможность того, что искусственный интеллект может выйти из-под контроля человека. Если люди начнут привыкать отдавать важные решения алгоритмам, будет все сложнее вернуть контроль людям, говорит отчет. Также отмечается, что будущие модели искусственного интеллекта могут стремиться снизить контроль людей, но добавляется, что «вероятность этих рисков остается спорной: многие эксперты считают, что вероятность очень низкая, некоторые же считают, что акцент на риске отвлекает от присущих проблем настоящего времени».

Помимо правительственных агентств, отчет, опубликованный сегодня, был рассмотрен панелью, которую составили эксперты по политике и этике из лаборатории искусственного интеллекта DeepMind компании Google, созданной как лондонский стартап по искусственному интеллекту, а также из стартапа Hugging Face, разрабатывающего программное обеспечение с открытым исходным кодом для искусственного интеллекта.

Йошуа Бенджио, один из трех «отцов-основателей искусственного интеллекта», которым была присуждена высшая премия в области вычислительной техники – премия Тьюринга за методы машинного обучения, являлся также консультантом. Бенджио недавно заявил, что его оптимизм относительно технологии, которую он помог развивать, угас и что для того, чтобы удержать искусственный интеллект под контролем, нужна новая организация, занимающаяся «защитой человечества».