Veel zakelijke AI-initiatieven mislukken niet omdat de technologie gebrekkig is, maar omdat ze in de ‘pilotval’ trappen. Bedrijven lanceren vaak tientallen losstaande experimenten – een fenomeen dat bekend staat als ‘pilot sprawl’ – die nooit tot daadwerkelijke bedrijfswaarde leiden.
Recente inzichten van technologieleiders bij MassMutual en Mass General Brigham (MGB) laten zien hoe organisaties deze hindernis overwinnen. Door ongecoördineerde experimenten te vervangen door rigoureus bestuur, duidelijke meetgegevens en strategische integratie, zetten deze bedrijven het AI-potentieel om in meetbare productiviteit.
MassMutual: de wetenschappelijke benadering van waarde
Voor MassMutual, een 175 jaar oude financiële dienstverlener, is AI niet langer een experiment; het is een productierealiteit. Het bedrijf heeft met succes AI geïntegreerd in acceptatie, claims, klantenservice en IT. De resultaten zijn opvallend:
– De productiviteit van ontwikkelaars is toegenomen met 30%.
– Oplossingstijden voor IT-helpdesks gedaald van 11 minuten naar slechts één.
– De gespreksduur van de klantenservice is teruggebracht van 15 minuten naar ongeveer twee minuten.
Succes definiëren via statistieken
Sears Merritt, hoofd bedrijfstechnologie en ervaring bij MassMutual, benadrukt dat elk AI-project moet beginnen met een hypothese. In plaats van trends na te jagen, vraagt het team zich af: Welk probleem lossen we op, en hoe gaan we dat bewijzen?
Om de wrijving van voortdurende aanpassingen te voorkomen, schrijft MassMutual voor dat ‘succes’ door zakenpartners moet worden gedefinieerd voordat een hulpmiddel ooit in productie gaat. Dit zorgt ervoor dat de technische implementatie aansluit bij de werkelijke afdelingsbehoeften.
Bouwen aan flexibiliteit
Een belangrijke strategie voor MassMutual is het vermijden van ‘vendor lock-in’. Omdat het AI-landschap zo snel verandert, onderhoudt het bedrijf een zeer heterogene omgeving. Ze hebben gemeenschappelijke servicelagen en API’s gebouwd die zich tussen hun AI-modellen en hun kernsystemen (inclusief oudere mainframes) bevinden.
Deze architectuur stelt hen in staat een ‘best-of-breed’-model in te ruilen voor een nieuwer, beter model zonder hun hele infrastructuur helemaal opnieuw op te bouwen.
Mis Generaal Brigham: Het snoeien van de “duizend bloemen”
Terwijl MassMutual zich concentreerde op rigoureuze metingen, moest Mass General Brigham (MGB) een consolidatieproces ondergaan. Jarenlang maakten de 15.000 onderzoekers van MGB gebruik van verschillende machine learning-tools, wat leidde tot een gefragmenteerd landschap van onbeheerde pilots.
Van wildgroei naar strategie
CTO Nallan “Sri” Sriraman beschrijft hun aanvankelijke aanpak als een ‘duizend bloemen bloeien’-methodologie, waarbij iedereen in wezen vrijelijk kan experimenteren. Hij besefte echter dat ze niet duizend bloemen hadden; ze hadden enkele tientallen niet-verbonden pogingen zonder richting.
Om dit op te lossen, draaide MGB naar een meer gecentraliseerde strategie:
– Bestaande platforms benutten: In plaats van interne tools te bouwen, begon MGB prioriteit te geven aan AI-functies die al werden uitgerold door hun belangrijkste leveranciers (zoals Epic, Microsoft en ServiceNow).
– Strategisch “planten”: In plaats van iemand te laten experimenteren, planten en voeden ze nu AI-initiatieven zorgvuldig door AI-kampioenen in te bedden in specifieke bedrijfsgroepen.
– Gecontroleerde omgevingen: Ze gebruiken “kleine landingszones” om geavanceerde producten veilig te testen, waardoor gecontroleerd testen van tokengebruik en modelgedrag mogelijk is.
De niet-onderhandelbare vangrails
In een gezondheidszorgomgeving is de inzet van AI-fouten levensveranderend. MGB heeft strikte ‘human-in-the-loop’-protocollen geïmplementeerd. Hoewel AI bijvoorbeeld kan helpen bij het genereren van radiologische rapporten, moet een arts de uiteindelijke beslissing altijd beoordelen en aftekenen.
Bovendien zijn de technische waarborgen absoluut:
– Gegevensprivacy: Strikte regels voorkomen dat beschermde gezondheidsinformatie (PHI) wordt ingevoerd in openbare AI-tools.
– De “Kill Switch”: Elk operationeel AI-systeem moet een “grote rode knop” hebben om het onmiddellijk uit te schakelen als het niet goed functioneert.
– Waarneembaarheid: Realtime dashboards controleren op “modeldrift” (wanneer de nauwkeurigheid van een AI in de loop van de tijd afneemt) om de veiligheid en betrouwbaarheid te garanderen.
Het eindresultaat
De overgang van AI-experimenten naar AI-productie vereist een mentaliteitsverandering: de beweging van ‘kunnen we dit doen?’ tot “hoe drijft dit de waarde aan, en hoe kunnen we deze besturen?”
Of het nu door de wetenschappelijke nauwgezetheid van MassMutual of door de gedisciplineerde consolidatie van MGB komt, de les is duidelijk: succesvolle zakelijke AI gaat niet over het aantal pilots dat je uitvoert, maar over de discipline waarmee je ze opschaalt.
