Многие инициативы в области корпоративного ИИ терпят неудачу не из-за несовершенства технологий, а из-за попадания в «ловушку пилотных проектов». Компании часто запускают десятки разрозненных экспериментов — явление, известное как «разрастание пилотов» (pilot sprawl ), — которые так и не приносят реальной бизнес-выгоды.
Последние данные от технологических лидеров из MassMutual и Mass General Brigham (MGB) показывают, как организации преодолевают этот барьер. Заменяя нескоординированные эксперименты строгим управлением, четкими метриками и стратегической интеграцией, эти компании превращают потенциал ИИ в измеримую продуктивность.
MassMutual: научный подход к созданию ценности
Для MassMutual, финансового института с 175-летней историей, ИИ — это больше не эксперимент, а реальность промышленной эксплуатации. Компания успешно внедрила ИИ в процессы андеррайтинга, обработки страховых случаев, обслуживания клиентов и ИТ. Результаты впечатляют:
— Продуктивность разработчиков выросла на 30%.
— Время решения заявок в ИТ-поддержке сократилось с 11 минут до всего одной.
— Длительность звонков в службу поддержки клиентов была сокращена с 15 минут до примерно двух.
Определение успеха через метрики
Сирз Мерритт, руководитель отдела корпоративных технологий и клиентского опыта в MassMutual, подчеркивает, что каждый ИИ-проект должен начинаться с гипотезы. Вместо того чтобы просто следовать трендам, команда задает вопрос: «Какую проблему мы решаем и как мы это докажем?»
Чтобы избежать трудностей, связанных с постоянной перенастройкой, MassMutual требует, чтобы «успех» определялся бизнес-партнерами еще до того, как инструмент будет запущен в эксплуатацию. Это гарантирует, что техническая реализация соответствует реальным потребностям подразделений.
Создание гибкой архитектуры
Ключевая стратегия MassMutual — избегать «привязки к вендору» (vendor lock-in ). Поскольку ландшафт ИИ меняется стремительно, компания поддерживает высоко неоднородную среду. Они создали общие сервисные уровни и API, которые выступают посредниками между их ИИ-моделями и основными системами (включая устаревшие мейнфреймы).
Такая архитектура позволяет им заменять одну «лучшую в своем классе» модель на новую, более совершенную, не перестраивая всю инфраструктуру с нуля.
Mass General Brigham: от «тысячи цветов» к порядку
Если MassMutual сосредоточилась на строгих измерениях, то Mass General Brigham (MGB) пришлось пройти через процесс консолидации. В течение многих лет 15 000 исследователей MGB использовали различные инструменты машинного обучения, что привело к фрагментированной среде неуправляемых пилотных проектов.
Переход от хаоса к стратегии
Технический директор Наллан «Шри» Срираман описывает их первоначальный подход как методологию «цветения тысячи цветов» — по сути, предоставление всем возможности экспериментировать свободно. Однако он осознал, что у них не было «тысячи цветов»; у них были лишь несколько десятков разрозненных попыток, лишенных единого направления.
Чтобы исправить это, MGB перешла к более централизованной стратегии:
— Использование существующих платформ: Вместо создания собственных инструментов MGB начала отдавать приоритет функциям ИИ, которые уже внедряются их основными поставщиками (такими как Epic, Microsoft и ServiceNow).
— Стратегическая «посадка»: Вместо того чтобы позволять любому экспериментировать, они теперь «тщательно высаживают и взращивают» ИИ-инициативы, внедряя амбассадоров ИИ (AI champions ) в конкретные бизнес-группы.
— Контролируемые среды: Они используют «малые зоны высадки» для безопасного тестирования сложных продуктов, что позволяет контролировать использование токенов и поведение моделей.
Незыблемые правила безопасности
В сфере здравоохранения цена ошибки ИИ может быть фатальной. MGB внедрила строгие протоколы «участия человека» (human-in-the-loop ). Например, хотя ИИ может помогать в составлении радиологических отчетов, врач всегда должен просматривать и подписывать окончательное решение.
Кроме того, технические меры защиты абсолютны:
— Конфиденциальность данных: Строгие правила запрещают вводить защищенную медицинскую информацию (PHI) в публичные инструменты ИИ.
— «Кнопка отключения»: Каждая операционная ИИ-система должна иметь «большую красную кнопку» для немедленного отключения в случае сбоя.
— Наблюдаемость: Дашборды в реальном времени отслеживают «дрейф модели» (когда точность ИИ со временем снижается), чтобы гарантировать безопасность и надежность.
Итог
Переход от экспериментов с ИИ к его промышленному внедрению требует смены парадигмы: перехода от вопроса «можем ли мы это сделать?» к вопросам «как это создает ценность и как нам этим управлять?».
Будь то научная строгость MassMutual или дисциплинированная консолидация MGB, урок очевиден: успешный корпоративный ИИ — это не количество запущенных пилотов, а дисциплина, с которой вы их масштабируете.
