Как McDonald’s и Air Canada неудачно использовали ИИ в бизнесе
Реальные истории провалов корпоративного ИИ — от сбоя в Drive-through до юридических последствий автоматизации клиентских сервисов
История корпоративного ИИ часто начинается одинаково: зрелищная демосцена, громкий пилот, высокий градус ожиданий. А дальше — будни: шумные данные, непредсказуемые пользователи, спорные метрики и уставший бюджет. Несколько заметных сюжетов последних лет хорошо показывают, где ломается сценарий и какие кирпичики стратегии, как правило, выпадают из фундамента.
Четыре истории — четыре недостающих элемента
Drive-through, где каждое слово — как подвижная цель
McDonald’s несколько лет испытывал автоматический прием заказов на Drive-through вместе с технологическим партнером. Видео из соцсетей с «перепутанными» позициями и шутливыми провокациями клиентов стали мемом, а пилот — закрытым. Не сработала не идея, а отправная точка: фронт-офис с высокой вариативностью речи требует зрелой оркестрации, четкой эскалации к оператору и промежуточных порогов качества. В стартовой конфигурации этого оказалось недостаточно — и эффект растворился. В итоге компания переключилась на внутренние бизнес-процессы, где внедрение ИИ дало реальный эффект.
«Это сказал бот, не мы»
История с Air Canada стала юридическим маркером эпохи: пассажиру чат-бот на сайте неверно описал условия «скорбного» тарифа, компания попыталась сослаться на «официальную политику», но трибунал указал очевидное: публичные ответы бота считаются позицией самой компании. Потерянные элементы стратегии лежали на поверхности: строгая политика содержания, запрет на догадки, обязательная ссылка на источник и понятная дорожка эскалации.
Медицина и эффект витрины
Вокруг Watson for Oncology много лет нарастали ожидания «второго мнения» для онкологов. На практике всплывали небезопасные рекомендации, дорогие интеграции и нехватка доказательной базы клинической пользы. Пилоты «сдувались» не только из-за технологии: ключевые метрики, понятные врачу и страховщику (выживаемость, токсичность, стоимость курса), не были помещены в центр конструктора, а система оставалась ближе к витрине, чем к рабочему инструменту.
«Большая модель все починит»
Еще один повторяющийся сюжет — попытка заменить инженерную дисциплину универсальной LLM. Помощники уровня Copilot ускоряют работу, но в отсутствие статического анализа, линтеров, тестов и код-ревью создают поток правдоподобного, но уязвимого кода. Здесь не хватило рамки: модель как ассистент, а не автор «в прод», плюс обязательные контуры контроля качества в CI/CD.
Каждый из этих эпизодов — не «приговор ИИ», а напоминание: проваливается не столько алгоритм, сколько стратегия вокруг него.
Что действительно должно оказаться «на первых страницах»
Одна метрика и один владелец
Проект держится на понятной цели, измеряемой в деньгах и минутах: время обработки заявки, доля ошибок, инкассация (DSO), NPS. Когда у показателя есть имя и фамилия, исчезают расплывчатые споры о «качестве ИИ», а оценка «до/после» переезжает из презентаций в отчет.
«Золотой» набор примеров вместо бесконечных правок
Несколько десятков эталонов «как должно быть» и «как быть не должно» под выбранную метрику — это коллективная память проекта. Такой компактный корпус гасит бессмысленные итерации и позволяет честно сравнивать альтернативы: поиск с цитатой и правила, узкую ML-модель, гибридный подход.
Минимально достаточная архитектура, а не «самая умная»
Когда ответ существует в регламенте и его нужно цитировать, работает поисково-ответная схема с белым списком формулировок. На очень больших однотипных массивах — счета, транзакции, события логистики — хорошо проявляют себя предобученные представления: они ловят повторяющиеся паттерны и улучшают прогноз. Там, где важен смысл текста (диалоги, договоры, письма), уместен генеративный слой для выделения признаков, а финальное решение лучше оставлять за узкой, объяснимой моделью старого доброго машинного обучения по прозрачным правилам риска. Такой «гибрид» дает и качество, и управляемую стоимость владения.
Границы и эскалация — до релиза
Публичные ответы бота — юридически ответы компании, и этот факт уже проверен на практике. Значит, у системы должны быть «красные линии», запрет на догадки, отказ от ответа при отсутствии источника и протокол, который приводит вопрос к человеку. Это не бюрократия — страховка капитала и репутации.
Прозрачность и «объясняемость» как часть продукта
Логи, трассировка цепочек, офлайн-оценка на эталонах и регулярная ручная валидация — не «опциональная премия», а способ управлять качеством. Без прозрачности и понятной логики ИИ остается надеждой, а не процессом.
Экономика в одном выражении
Смысл кейса сводится к простой формуле: прирост дохода плюс экономия минус расходы на инференс, платформу, аннотацию/обучение, интеграции и сопровождение. Если прирост за квартал ниже порога — это не драма, а сигнал к переформатированию или остановке до перерасхода бюджета.
Роли, которые не стоит совмещать
В центре — бизнес-владелец с метрикой и бюджетом; рядом — инженер данных, отвечающий за источники, качество и права; доменный редактор/комплаенс, определяющий политику и «красные линии»; и техлид интеграции, который держит сроки и качество поставки. Когда эти роли «на месте», проект перестает быть технической игрой и становится управляемой инициативой.
Вместо эпилога
Крупные промахи международных компаний — не истории о «плохом ИИ». Это хроника недостающих деталей: кто отвечает, чем измеряем, какой инструмент используем, где границы и зачем все это бизнесу. Там, где эти детали собираются вместе, исчезает соблазн начинать с самых шумных витрин, а сами модели становятся частью инфраструктуры: тихо ускоряют обороты, исправно снижают издержки и, что особенно важно, оставляют след не в новостях, а в P&L.