Осторожный подход к искусственному интеллекту

5877

Для директивных органов, где бы то ни было, наилучший способ принятия решений заключается в том, чтобы строить их на доказательствах, какими бы несовершенными они ни были

Фото: delo.ua

Но что должны делать лидеры, когда факты недостаточны либо отсутствуют вообще? Это дилемма, с которой сталкиваются те, кто должен бороться с последствиями “продвинутых интеллектуальных алгоритмов” – бинарные строительные блоки машинного обучения и искусственного интеллекта (ИИ).

В академических кругах учёные, связанные с ИИ, либо “сингуляритане”, либо “презентисты”. Сингуляритане обычно утверждают, что хотя технологии ИИ представляют собой экзистенциальную угрозу для человечества, выгоды перевешивают издержки. Однако, несмотря на то что эта группа включает в себя множество технических светил и привлекает значительное финансирование, её научные материалы до сих пор не смогли доказать правоту их расчётов.

С другой стороны, презентисты склонны фокусироваться на честности, ответственности и прозрачности новых технологий. Например, их беспокоит то, как автоматизация повлияет на рынок труда. Но и здесь исследования были не слишком убедительны. Например, MIT Technology Review недавно сравнил результаты 19 крупных исследований с оценкой прогнозируемых потерь рабочих мест и выявил, что прогнозы по количеству “ликвидированных” рабочих мест в мире варьируют от 1,8 до 2 миллиардов.

Иными словами, “удобной истины” нет ни у одной из сторон этой дискуссии. Когда прогнозы воздействия ИИ колеблются от незначительных сбоев на рынке труда до вымирания человечества, очевидно, что миру необходима новая структура по анализу и управлению предстоящим технологическим разрывом.

Безусловно, неполные данные являются общей проблемой для технологических исследований. Даже в “нормальных” условиях исследование новых технологий – это как складывать пазлы в темноте при тусклом фонарике. Предположения разработанных теорий не ставятся под сомнение, а получение благоприятных результатов является вопросом количественной оценки вероятностей неблагоприятных событий и, следовательно, регулирования сопутствующих рисков.

Но каждый раз возникает “постнормальная” научная головоломка, что-то, что в 1993 философы Сильвио Фунтович и Джером Равец первоначально определили как проблему, “где факты неопределенны, ценности спорны, ставки высоки, а решения неотложны”. Для этих вызовов – среди которых и ИИ - политика не может позволить себе ждать, пока наука с этим справится.

В настоящее время большинство политик в области ИИ имеют место на Глобальном Севере, что недооценивает проблемы менее развитых стран и затрудняет управление технологиями двойного назначения. Хуже того, директивные органы зачастую игнорируют потенциальное воздействие на окружающую среду и практически полностью фокусируются на антропогенных эффектах автоматизации, робототехники и машин.

Даже без надёжных данных лица, принимающие решения, должны продвигаться вперед в управлении ИИ. И, поскольку мир ждет научной определённости (которая, возможно, никогда не наступит), имеется существующее решение, которое может привести нас к неизвестному, - “принцип предосторожности”. Принятый на глобальном уровне в 1992 году, в рамках Конвенции Организации Объединенных Наций по устойчивому развитию, в Рио-де-Жанейро, а затем включённый в один из основополагающих договоров Европейского союза, принцип предосторожности гласит, что отсутствие уверенности не может служить основанием для отказа от охраны здоровья человека или окружающей среды. Это кажется подходящим путём для решения проблемы неопределённости технологически стимулированного будущего.

Принцип предосторожности не лишен своих критиков. Но, несмотря на то что его заслуги обсуждались годами, мы должны признать, что отсутствие доказательств вреда – это не то же самое, что доказательства отсутствия вреда. Эта простая идея была применена к многочисленным вопросам развития человеческого потенциала – от общественного здравоохранения до младенческой смертности. Существуют три веские причины, по которым ИИ должен стать следующим.

Во-первых, применение принципа предосторожности в контексте ИИ помогло бы восстановить баланс глобальной политической дискуссии, предоставив более слабым голосам большее влияние в дебатах, которые в настоящее время монополизированы корпоративными интересами. Принятие решений также было бы более инклюзивным и совещательным, а выработка решений более полно отражала социальные потребности. Институт инженеров электротехники и электроники и The Future Society, Школа государственного управления имени Кеннеди Гарвардского университета уже возглавили работу в духе коллективного участия. Дополнительные профессиональные организации и исследовательские центры должны последовать этому примеру.

Более того, применяя принцип предосторожности, органы управления могли бы перенести бремя ответственности на создателей алгоритмов. Требование объяснимости алгоритмического принятия решений может изменить стимулы, предотвратить использование блэкбоксинга, помочь сделать бизнес-решения более прозрачными и позволить государственному сектору догнать частный сектор в развитии технологий. И, заставляя технологические компании и правительства выявлять и рассматривать множество вариантов, принцип предосторожности выдвинул бы на первый план игнорируемые проблемы, такие как воздействие на окружающую среду.

Наука в редких случаях способна помочь в управлении инновациями задолго до того, как последствия этой инновации будут доступны для изучения. Но в контексте алгоритмов, машинного обучения и ИИ человечество не может позволить себе ждать. Прелесть принципа предосторожности заключается не только в его обосновании в международном публичном праве, но и в его послужном списке в качестве основы для управления инновациями в бесчисленных научных контекстах. Мы должны принять его, прежде чем блага прогресса будут неравномерно распределены или, что еще хуже, будет нанесён непоправимый вред.

Мацей Кузьемский, научный сотрудник Школы транснационального управления в Институте Европейского университета

© Project Syndicate 1995-2018 

   Если вы обнаружили ошибку или опечатку, выделите фрагмент текста с ошибкой и нажмите CTRL+Enter

Орфографическая ошибка в тексте:

Отмена Отправить