Приручить дракона: как минимизировать риски внедрения ИИ

Появление генеративного искусственного интеллекта дает компаниям уникальную возможность полностью трансформировать свою деятельность

Иллюстрация: © Depositphotos/digitalstorm

Генеративный ИИ научился писать программный код, создавать качественные тексты, изображения и видео, а также имитировать речь. ИИ уже меняет привычную нам жизнь, разрабатывая молекулярные модели, которые служат основой для поис­ка лекарств от ранее неизлечимых заболеваний. Согласно данным McKinsey & Company, генеративный ИИ может принести мировой экономике до $4,4 трлн. Эти радужные перспективы несколько омрачают риски использования ИИ, о которых предупреждают эксперты. В ходе недавнего опроса 100 организаций с годовым доходом более $50 млн в McKinsey установили, что 63 % респондентов считают внедрение ИИ одним из своих приоритетов. При этом 91 % опрошенных считают себя не вполне подготовленными к тому, чтобы сделать это ответственно и безопасно.

Это беспокойство вполне понятно. Риски, связанные с генеративным ИИ, разнообразны. Если данные, заложенные в расчеты, неверны, генеративный ИИ может выдавать ошибочные результаты. Системы на основе ИИ могут быть использованы для распространения дезинформации. Кроме того, они не застрахованы от утечек персональных данных. Эти и другие проблемы могут замедлить внедрение генеративного ИИ, заставив компании приостановить соответствующие эксперименты до тех пор, пока риски не будут лучше поняты.

Эксперты McKinsey уверены: рисками использования генеративного ИИ можно управлять. Не обязательно откладывать внедрение этой технологии, чтобы воспользоваться ее преимуществами. Да, генеративный ИИ несет в себе определенные угрозы, однако они возникнут вне зависимости от того, использует ваша компания ИИ или нет. Эти угрозы повсеместны, и бизнесу в любом случае придется искать способы от них защититься.

В McKinsey выделяют восемь категорий рисков, связанных с развитием ИИ (см. иллюстрацию). По мнению экспертов, топ-менеджеры каждой компании должны иметь базовое представление об этих угрозах. Минимизировать риски можно, постоянно анализируя влияние ИИ на ваш бизнес. Эксперты рекомендуют начать с организации координационной группы по изучению ИИ, которая бы встречалась не реже раза в месяц. В эту группу разумно включить топ-менеджеров и IT-специа­листов, аналитиков данных, экспертов по конфиденциальности и юридическим вопросам. У координационной группы должны быть полномочия для принятия ключевых решений, связанных с ИИ, включая оценку рисков и поиск способов их смягчения.

Компаниям также следует определить правила, которые будут служить руководством для работы с ИИ. Эти принципы должны регламентировать использование генеративного ИИ в маркетинге и работе с клиентами, работе с персоналом (включая наем сотрудников и оценку их производительности), а также степень человеческого контроля над этой технологией. Существующие правила в тех сферах, которые затрагивает ИИ (например, интеллектуальная собственность), необходимо обновить.

Приверженность ответственному использованию генеративного ИИ должна распространяться на всех сотрудников, а не только на топ-менеджмент, подчеркивают в McKinsey. Необходимо разработать и внедрить базовое обучение по ответственному использованию ИИ для всей организации. Только так удастся обеспечить безопасное для общества и отдельно взятой компании использование этой технологии. Например, учитывая, что модели на основе генеративного ИИ иногда могут выдавать ошибочные результаты, сотрудников необходимо предостерегать от слепой веры в могущество этой технологии.

Обучение ответственному использованию – важный, но не единственный шаг на пути к массовому внедрению ИИ. Не менее критично создать соответствующие этой задаче профессиональные роли. Менеджеры по вопросам ИИ должны определять общее направление работы с этой технологией: способы ее использования и связанные с ними риски, соответствие принципов внедрения ИИ стратегии развития организации и пр. Кроме того, менеджерам по вопросам ИИ необходимо постепенно менять корпоративную культуру организации, создавая условия для ответственного и эффективного использования ИИ.

Разумеется, компаниям необходимо нанимать и инженеров по работе с ИИ – технических экспертов, которые понимают механику работы искусственного интеллекта. Эти специалисты разрабатывают конкретные технологии, стоящие за внедрением ИИ и снижением связанных с ИИ рисков. При этом не следует забывать, что выявление угроз, которые несет в себе ИИ, – общая задача, к решению которой должны подключиться все сотрудники. В конечном счете именно обычные пользователи часто играют решающую роль в выявлении рисков, связанных с ИИ, ведь именно они взаимодействуют с ИИ-моделями в повседневной работе.