Почему Сенат вернул закон об искусственном интеллекте на доработку
Мнение страховщика: какие проблемы может создать искусственный интеллект казахстанцам
Искусственный интеллект уже набил оскомину в информационном пространстве, но продолжает занимать центральное место в повестке. Такова новая реальность, которую нам всем приходится принимать. Если раньше об искусственном интеллекте вели дискуссии футурологи и околонаучные круги, то теперь вопрос переместился в практическую плоскость. На мировом рынке уже представлено немало разработок, призванных решать не абстрактные, а вполне конкретные коммерческие задачи.
Вот и в Казахстане решили не ждать, а разработать закон, регулирующий применение искусственного интеллекта. При этом принятый в Мажилисе парламента законопроект Сенат вернул на доработку в нижнюю палату. Замечаний у сенаторов было достаточно, и одно из основных касалось страхования рисков, создаваемых искусственным интеллектом. Риски действительно возникают, и связаны они далеко не с потерей человечеством контроля над нейросетями, хотя и такая опасность тоже существует.
Кто в ответе за ИИ?
В законопроекте об искусственном интеллекте страхованию было посвящено всего одно предложение в статье 24: «Страхование ответственности за вред, причиненный системами искусственного интеллекта, и рисков, связанных с использованием систем искусственного интеллекта, осуществляется на добровольной основе в соответствии с законодательством Республики Казахстан».
В свою очередь Сенат предложил наряду с возможностью добровольного также предусмотреть и обязательное страхование ответственности за вред, причиненный системами искусственного интеллекта. Казалось бы, такое небольшое замечание открывает возможность для появления нового класса страхования и соответствующего закона.
Для начала нужно разобраться, кто должен отвечать за вред, причиненный искусственным интеллектом: конечный пользователь или разработчик/владелец системы? При внедрении и использовании ИИ-систем возникают разные виды рисков. Некоторые из них типичны для технологий, некоторые специфичны именно для ИИ.
Искусственный интеллект — это инструмент, использовать его можно как во благо, так и с преступным умыслом — допустим, создать фейк для последующего отъема средств у граждан.
Но что делать, если искусственный интеллект, разработанный под конкретные задачи — создание добавленной стоимости, — допускает ошибку, в результате которой конечный пользователь получает ущерб, финансовый или любой другой? По замыслу сенаторов, именно в таких случаях и должно быть задействовано страхование.
Интеллект искусственный, проблемы — естественные
Уже сейчас множество людей и компаний в Казахстане используют искусственный интеллект для решения задач, который куда шире поисковых запросов в ChatGPT. И вот несколько примеров.
Наши IT-специалисты в СК «Евразия» разработали систему компьютерного зрения на базе искусственного интеллекта, которая позволяет автоматизировать сканирование документов на физических носителях и затем вносить данные из них в базу. Далее данные используются для автоматизированного заполнения анкет и заключения договоров страхования.
Также страховщики сейчас активно разрабатывают и внедряют системы компьютерного зрения для оценки повреждений, полученных автомобилями в ДТП. Искусственный интеллект определяет количество и стоимость поврежденных деталей. В данном случае ошибка может стоить еще дороже, если владелец автомобиля недополучит страховую выплату в результате некорректной оценки и последующих расчетов.
Давайте представим, что искусственный интеллект внедрили в совет директоров крупной квазигосударственной компании в качестве полноправного члена с правом голоса. Какова будет цена ошибки при принятии решений? Последствия неверного управленческого решения могут нанести ущерб на миллиарды, десятки миллиардов тенге.
Есть и примеры продуктов, которые разрабатывают наши международные партнеры. Например, Munich Re предлагают специализированное покрытие для ошибок и сбоев моделей искусственного интеллекта aiSure, покрывающей в том числе риски «галлюцинации» (когда нейросеть начинает уверенно выдумывать), а также нарушения приватности и интеллектуальной собственности.
Самая высокая цена, которую может заплатить человек за ошибку — жизнь, и это не абстрактная фигура речи. Уже сейчас на дорогах Казахстана ездят сотни электромобилей с системами автопилотирования. Они пока не совершенны и вряд ли когда-то будут абсолютно безопасными. Да, смертельных случаев на наших дорогах при использовании автопилотов еще не было, тем более что автопроизводители пока не готовы брать на себя полную ответственность за их безопасность. Однако в будущем в результате прогресса их обязательно признают полноценными участниками дорожного движения. Будут ли по их вине гибнуть люди? Иллюзий на этот на этот счет у меня нет. Также на ум приходит фармацевтическая отрасль, которая активно внедряет модели искусственного интеллекта при разработке препаратов, и многие другие направления.
Казахстанским страховщикам сначала придется решить ряд непростых вопросов, чтобы предложить рынку необходимый продукт страхования: недостаточность исторических данных, чтобы оценить вероятность и размер убытков, неопределенность ответственности, необходимость классифицировать виды рисков по типу воздействия, частоте и масштабам потерь, исключения и лимиты покрытия.
Не интеллектом единым
Признаюсь, возвращение законопроекта в Мажилис и предложения Сената стали неожиданностью для страхового рынка. Нам всем еще только предстоит внимательно изучить тему, представить видение и, главное, произвести актуарные расчеты.
Страховщики нечасто приглашают IT-специалистов в рабочие группы, особенно при разработке законов. Если раньше страховые компании подходили к искусственном интеллекту с практической точки зрения, то теперь придется оценить всевозможные риски и просчитать стоимость и последствия ошибок.
Если каких-то десять лет назад в исследовательских работах любого уровня учебные заведения запрещали использовать Википедию, то теперь такие ограничения распространяются на ChatGPT и другие нейросети. И причина не только в том, что автор работы при таком подходе исключает элемент самостоятельного изучения темы. Основная проблема в том, что искусственный интеллект не лишен изъянов, присущих уму человеческому, он тоже ошибается. Ошибки могут случаться как из-за использования некорректных исходных данных, так и из-за отсутствия критического подхода к анализу.
Страховым компаниям, да и всем остальным отраслям экономики нужно держать руку на пульсе. Искусственный интеллект развивается с фантастической скоростью и, вероятно, в ближайшие годы повсеместно перевернет сложившийся уклад жизни и экономики. При этом нельзя забывать о рисках, многие из которых мы пока даже гипотетически не можем себе представить.