Как искусственный интеллект меняет мир

8853

Последние месяцы вполне могут войти в историю как момент, когда прогнозный искусственный интеллект (ИИ) стал мейнстримом

ФОТО: © pixabay.com

Хотя прогнозирующие алгоритмы используются десятилетиями, выпуск таких приложений, как ChatGPT3 от OpenAI, и его быстрая интеграция с поисковой системой Microsoft Bing, возможно, открыли дорогу для комфортного использования ИИ. За несколько недель с момента своего выхода ChatGPT3 привлек 100 миллионов пользователей в месяц, многие из которых, несомненно, уже испытали на себе его темную сторону — от оскорблений и угроз до дезинформации и подтвержденной способности писать вредоносный код.

Чат-боты, вокруг которых развернулась вся шумиха, это лишь верхушка айсберга. ИИ для создания текста, речи, изображений и видео быстро развивается, что обещает управленцам, торговле и общественной жизни далеко идущие последствия. Неудивительно, что в этот сектор хлынул поток капитала: правительства и компании инвестируют в стартапы для разработки и развертывания новейших инструментов машинного обучения. Эти новые приложения будут сочетать исторические данные с машинным обучением, обработкой естественного языка и углубленными знаниями по определению вероятности будущих событий.

Важно отметить, что внедрение новой обработки естественного языка и генеративного ИИ не будет ограничено богатыми странами и такими компаниями, как GoogleMeta и Microsoft, которые возглавили их создание. Эти технологии уже распространяются в странах с низким и средним уровнем дохода, где прогностическая аналитика для всего, от сокращения неравенства в городах до решения проблемы продовольственной безопасности, сулит огромные перспективы испытывающим нехватку денежных средств правительствам, фирмам и НПО, стремящимся повысить эффективность и разблокировать социальные и экономические преимущества.

Проблема, однако, заключается в том, что потенциальным негативным внешним эффектам и непреднамеренным последствиям этих технологий уделяется недостаточно внимания. Самый очевидный риск заключается в том, что беспрецедентно мощные инструменты прогнозирования укрепят возможности для слежки внутри авторитарных режимов.

Одним из широко цитируемых примеров является китайская «система социального рейтинга», которая использует кредитные истории, судимости, поведение в Интернете и прочие данные для присвоения рейтинга каждому человеку в стране. Затем этот рейтинг может быть использован для определения того, кому давать кредит, доступ к хорошей школе, путешествиям по железной дороге или по воздуху и так далее. И хотя китайская система позиционируется в качестве инструмента повышения прозрачности, она также служит инструментом социального контроля.

Тем не менее, даже в руках якобы благонамеренных демократических правительств, компаний, ориентированных на общественное влияние, и прогрессивных некоммерческих организаций инструменты прогнозирования могут давать неоптимальные результаты. Ошибки проектирования в базовых алгоритмах и применение предвзятых данных могут привести к нарушениям конфиденциальности и дискриминации на основе приватной информации. Это уже стало серьезной проблемой в уголовном правосудии, где прогнозная аналитика регулярно увековечивает расовые и социально-экономические неравенства. Например, система искусственного интеллекта, созданная в помощь судьям США для оценки вероятности рецидивов, ошибочно определила, что темнокожие подсудимые подвержены гораздо большему риску повторного совершения преступления, чем белые.

Также растут опасения, что ИИ может усугубить неравенство на рабочем месте. До сих пор прогностические алгоритмы повышали эффективность и прибыль таким образом, что это приносило пользу менеджерам и акционерам за счет рядовых работников (особенно в экономике фриланса).

Во всех этих примерах системы искусственного интеллекта держат общество в мире кривых зеркал, отражая и преувеличивая наши предубеждения и неравенство. Как отмечает исследователь технологий Нанджира Самбули, цифровизация имеет тенденцию усугублять, а не решать существующие политические, социальные и экономические проблемы.

Энтузиазм во внедрении прогностических инструментов должен быть уравновешен осознанным и этическим пониманием их предполагаемых и непреднамеренных эффектов. Там, где влияние мощных алгоритмов подвергается сомнению или неизвестно, принцип осторожности предостерегает от их развертывания.

Мы не должны позволить ИИ стать еще одной областью, где ответственные лица скорее просят прощения, нежели спрашивают разрешения. Вот почему Верховный комиссар Организации Объединенных Наций по правам человека и другие видные деятели призвали ввести мораторий на внедрение систем ИИ до тех пор, пока этические нормы и своды норм прав человека не будут обновлены с учетом их потенциального вреда.

Создание соответствующих рамок потребует достижения консенсуса по основным принципам, которые должны лежать в основе разработки и использования инструментов прогнозирующего ИИ. К счастью, гонка за ИИ привела к возникновению параллельного шквала исследованийинициативинститутов и сетей по этике. И хотя ведущую роль взяло на себя гражданское общество, к нему присоединились и межправительственные организации, такие как ОЭСР и ЮНЕСКО.

ООН работает над созданием универсальных стандартов этичного ИИ как минимум с 2021 года. Более того, Европейский Союз предложил Закон об ИИ — первое подобное усилие крупного регулирующего органа, — который заблокирует определенные виды использования (например, схожие с системой социального рейтинга в Китае) и подвергнет другие приложения высокого риска особым требованиям и контролю.

На сегодняшний день эти обсуждения в основном сосредоточены в Северной Америке и Западной Европе. Но у стран с низким и средним уровнем доходов есть свои базовые потребности, проблемы и социальные неравенства, которые необходимо учитывать. Существует множество исследований, показывающих, что технологии, разработанные рынками и для рынков в странах с развитой экономикой, часто не подходят странам с менее развитой экономикой.

Если новые инструменты ИИ просто импортировать и широко использовать до того, как будут созданы необходимые структуры управления, они легко могут принести больше вреда, чем пользы. Все эти вопросы необходимо учитывать, если мы собираемся разработать действительно универсальные принципы управления ИИ.

Признавая эти пробелы, аналитические центры Igarapé Institute и New America недавно создали новую глобальную целевую группу по прогнозной аналитике в области безопасности и развития. Целевая группа соберет защитников цифровых прав, партнеров из государственного сектора, технологических предпринимателей и социологов из Америки, Африки, Азии и Европы с целью определения основных принципов использования прогностических технологий в сфере общественной безопасности и устойчивого развития на Глобальном Юге.

Формулирование этих принципов и стандартов — только первый шаг. Более серьезной задачей будет наладить международное, национальное и субнациональное сотрудничество и координацию, необходимые для их реализации в законодательстве и на практике. Глобальная гонка по разработке и внедрению новых инструментов прогнозного ИИ нуждается в системах предотвращения вреда для обеспечения безопасного, процветающего, устойчивого и ориентированного на человека будущего.

Роберт Мугга, соучредитель Igarapé Institute и SecDev Group, член Глобального совета будущего Всемирного экономического форума по городам завтрашнего дня и советник Отчета о глобальных рисках

Габриэлла Сейлер, консультант Igarapé Institute, партнер и директор Kunumi

Гордон Лафорж, старший политический аналитик New America и преподаватель Школы глобального управления Thunderbird в Университете штата Аризона

© Project Syndicate 1995-2023 

   Если вы обнаружили ошибку или опечатку, выделите фрагмент текста с ошибкой и нажмите CTRL+Enter

Орфографическая ошибка в тексте:

Отмена Отправить