ИИ без «аварийного выключателя»: почему мир не готов к технологической угрозе
И как новые модели ИИ обостряют вопрос глобального регулирования
Давно стало ясно, что медлительные правительства не успевают за стремительным прогрессом в области ИИ. Но заявление компании Anthropic о том, что ее новая модель Claude Mythos Preview способна выявлять и использовать уязвимости в каждой крупной операционной системе и веб-браузере, подчеркнуло опасность отсутствия регулирования этой технологической революции. Даже такой ярый сторонник дерегулирования, как президент США Дональд Трамп, признал, что должен существовать «аварийный выключатель», когда появились новости о Mythos. Но такого простого решения больше не существует — если оно когда-либо и существовало.
Угроза двояка: злонамеренные люди и вышедшие из-под контроля модели ИИ. Последние агенты ИИ уже усилили кибератаки и риски в области биоинженерии, ускорив разработку нового оружия, включая потенциально катастрофические «зеркальные организмы». Теперь с появлением Mythos (а также мощной модели с ограниченным доступом от OpenAI), консорциум авторизованных пользователей — включая некоторые правительственные агентства США и несколько надежных компаний — спешно принимает меры по защите критически важного программного обеспечения.
Но хотя эти новые модели ИИ считаются слишком рискованными для выпуска в открытый доступ, такие возможности, скорее всего, будут распространяться. В результате даже технологические гиганты, которые долгое время выступали против любого рода регулирования, теперь призывают политиков вмешаться. Вопрос в том, как это будет выглядеть. Некоторые правительства, например Китай, контролируют серверы ИИ и центры обработки данных. Большинство других правительств этого не делают. Все они уязвимы для кибератак на основе ИИ, которые могут привести к масштабному отключению критически важной инфраструктуры.
Существует также проблема защиты от биологических угроз, связанных с ИИ. Генеральный директор Anthropic Дарио Амодей подчеркнул асимметрию между биологическими атаками, которые могут быстро распространяться самостоятельно, и защитой от них, которая требует быстрого обнаружения, за которым следует оперативное внедрение вакцин и лечения для большого числа людей. Учитывая, что большая часть ущерба наносится до того, как становится возможным реагировать, Амодей подчеркивает важность разработки мер защиты от некоторых из наиболее вероятных биологических агентов. Это пугающее предупреждение.
Не имея «аварийного выключателя», правительства могут предпринять два шага, чтобы подготовиться к атакам с использованием ИИ. Первый — это эффективная координация. Давно страны «Большой семерки» обнаружили, что регулярные контакты между их финансовыми чиновниками (чтобы все они знали друг друга и понимали опасения других правительств) позволяют обеспечить эффективную коммуникацию и быстрое реагирование на финансовые кризисы.
Более широкий круг стран должен сформировать группы быстрого реагирования на кибератаки и биологические угрозы и обеспечить, чтобы эти эксперты начали регулярно встречаться уже сейчас, задолго до возникновения кризиса. «Группа двадцати» могла бы начать этот процесс, немедленно создав экспертные группы, члены которых впоследствии координировали бы встречи в своих регионах. Даже если США или Китай откажутся участвовать, остальные страны «Группы двадцати» все равно должны двигаться вперед.
Аналогичным образом правительства осознали, что национальные меры, такие как карантин и запреты на поездки, сами по себе не сдерживают эпидемии — и то же самое верно в отношении биологических атак с использованием ИИ. Для укрепления глобальной безопасности в области здравоохранения Всемирная организация здравоохранения создала Международные медико-санитарные правила — рамочную структуру, с помощью которой страны могут обмениваться информацией о вспышках заболеваний, не опасаясь остракизма или репрессий. Несмотря на свои недостатки, эта структура помогла ученым всего мира выявлять вирусы, требующие принятия защитных мер.
Это указывает на второй шаг: после создания экспертная группа «Группы двадцати» должна разработать некоторые базовые правила и механизмы, позволяющие обеспечить быстрый обмен информацией и управление кризисами в случае кибератак с использованием ИИ и биологических угроз. Такая структура, создание которой могла бы содействовать существующая международная организация, позволила бы компаниям, исследователям и правительствам сообщать о рисках или вспышках заболеваний. Мир не может ждать, пока страны договорятся о многостороннем договоре по безопасности ИИ или создадут новый глобальный орган для его регулирования.
Эти шаги должны подкрепляться национальным регулированием. Системы ИИ и без того трудно контролировать: было замечено, что они обманывают, мошенничают и манипулируют для достижения своих целей. Существует мало механизмов контроля, предотвращающих попадание моделей в руки злоумышленников. Эти вопросы подробно обсуждались, в частности, Независимой международной научной группой ООН по ИИ и на Саммите по безопасности ИИ 2023 года (результатом которого стала Блетчлейская декларация), а также повторялись в различных обещаниях, обязательствах и отчетах. Настало время действовать.
Как минимум, правительства должны требовать от разработчиков ИИ соблюдения базовых стандартов безопасности, определенных независимыми аудиторами, прежде чем их модели можно будет приобретать или использовать. Если это необходимо для игрушек, автомобилей и медицинских устройств, то тем более нужно для инструментов ИИ, риски которых признают даже их создатели.
Три стандарта имеют особое значение. Во-первых, лаборатории ИИ должны тщательно тестировать свои модели перед выпуском, проводя проверки, чтобы убедиться, что они не вводят тестировщиков в заблуждение. В гонке за разработку самой передовой в мире модели такие испытания могут оказаться недостаточными, если они не будут регулироваться. Во-вторых, разработчики должны иметь четкий и обязательный подход к безопасности после выпуска, включая требование раскрывать любые проблемы, возникающие с их моделями (Калифорния и Нью-Йорк добились значительных успехов в этом направлении). В-третьих, системы ИИ нуждаются в защитных механизмах, предотвращающих их использование для производства биологического оружия, включая классификаторы, которые обнаруживают и блокируют соответствующие результаты.
Правительствам не нужно нести бремя регулирования ИИ в одиночку. Но они должны действовать быстро, чтобы вовлечь потенциал других заинтересованных сторон — включая советы директоров компаний, сотрудников, заботящихся о безопасности, аудиторов, страховщиков, инвесторов, корпоративных клиентов, потребителей и международные агентства — в деле снижения рисков атак, основанных на ИИ. Технология может быть ослепительной, но она также привела к появлению более взрывоопасного мира.