Додому Ultime notizie e articoli Dall’espansione pilota alla produzione: come i leader aziendali stanno scalando l’intelligenza artificiale

Dall’espansione pilota alla produzione: come i leader aziendali stanno scalando l’intelligenza artificiale

Molte iniziative aziendali di intelligenza artificiale falliscono non perché la tecnologia sia difettosa, ma perché cadono nella “trappola del pilota”. Le aziende spesso lanciano dozzine di esperimenti sconnessi tra loro – un fenomeno noto come “espansione pilota” – che non si trasformano mai in un reale valore aziendale.

Recenti approfondimenti dei leader tecnologici di MassMutual e Mass General Brigham (MGB) rivelano come le organizzazioni stanno superando questo ostacolo. Sostituendo la sperimentazione non coordinata con una governance rigorosa, parametri chiari e integrazione strategica, queste aziende stanno trasformando il potenziale dell’intelligenza artificiale in produttività misurabile.

MassMutual: l’approccio scientifico al valore

Per MassMutual, un istituto di servizi finanziari attivo da 175 anni, l’intelligenza artificiale non è più un esperimento; è una realtà produttiva. L’azienda ha integrato con successo l’intelligenza artificiale nella sottoscrizione, nei sinistri, nel servizio clienti e nell’IT. I risultati sono sorprendenti:
– La produttività degli sviluppatori è aumentata del 30%.
I tempi di risoluzione dell’help desk IT sono scesi da 11 minuti a un solo.
– La durata delle chiamate al servizio clienti è stata ridotta da 15 minuti a circa due minuti.

Definire il successo attraverso i parametri

Sears Merritt, responsabile della tecnologia e dell’esperienza aziendale di MassMutual, sottolinea che ogni progetto di intelligenza artificiale deve iniziare con un’ipotesi. Invece di inseguire le tendenze, il team si chiede: Quale problema stiamo risolvendo e come lo dimostreremo?

Per evitare gli attriti derivanti da continui aggiustamenti, MassMutual impone che il “successo” venga definito dai partner commerciali prima che uno strumento raggiunga la produzione. Ciò garantisce che l’implementazione tecnica sia in linea con le reali esigenze del dipartimento.

Costruire per la flessibilità

Una strategia chiave per MassMutual è evitare il “vincolo del fornitore”. Poiché il panorama dell’intelligenza artificiale cambia così rapidamente, l’azienda mantiene un ambiente altamente eterogeneo. Hanno creato livelli di servizio e API comuni che si collocano tra i loro modelli di intelligenza artificiale e i loro sistemi principali (compresi i mainframe legacy).

Questa architettura consente loro di sostituire un modello “best-of-breed” con uno più nuovo e migliore senza ricostruire l’intera infrastruttura da zero.


Messa Generale Brigham: potare i “mille fiori”

Mentre MassMutual si concentrava su misurazioni rigorose, Mass General Brigham (MGB) ha dovuto sottoporsi a un processo di consolidamento. Per anni, i 15.000 ricercatori dell’MGB hanno utilizzato vari strumenti di apprendimento automatico, creando un panorama frammentato di progetti pilota non gestiti.

Passare dallo sprawl alla strategia

Il CTO Nallan “Sri” Sriraman descrive il loro approccio iniziale come una metodologia “mille fiori sbocciano”, consentendo essenzialmente a tutti di sperimentare liberamente. Tuttavia si rese conto che non avevano mille fiori; hanno avuto qualche dozzina di tentativi disconnessi che mancavano di direzione.

Per risolvere questo problema, MGB si è orientata verso una strategia più centralizzata:
Sfruttare le piattaforme esistenti: invece di creare strumenti interni, MGB ha iniziato a dare priorità alle funzionalità di intelligenza artificiale già implementate dai fornitori principali (come Epic, Microsoft e ServiceNow).
“Semina” strategica: Invece di consentire a chiunque di sperimentare, ora “piantano e nutrono con cura” le iniziative di intelligenza artificiale incorporando campioni di intelligenza artificiale all’interno di specifici gruppi aziendali.
Ambienti controllati: utilizzano “piccole zone di destinazione” per testare prodotti sofisticati in modo sicuro, consentendo test controllati dell’utilizzo dei token e del comportamento del modello.

I guardrail non negoziabili

In un contesto sanitario, la posta in gioco per gli errori dell’IA può cambiare la vita. MGB ha implementato rigorosi protocolli “human-in-the-loop”. Ad esempio, mentre l’intelligenza artificiale può aiutare nella generazione di referti radiologici, un medico deve sempre rivedere e approvare la decisione finale.

Inoltre le tutele tecniche sono assolute:
Privacy dei dati: regole rigorose impediscono l’inserimento di informazioni sanitarie protette (PHI) negli strumenti pubblici di intelligenza artificiale.
Il “Kill Switch”: Ogni sistema IA operativo deve avere un “grande pulsante rosso” per spegnerlo immediatamente in caso di malfunzionamento.
Osservabilità: i dashboard in tempo reale monitorano la “deriva del modello” (quando la precisione di un’intelligenza artificiale diminuisce nel tempo) per garantire sicurezza e affidabilità.


Il risultato finale

La transizione dalla sperimentazione dell’IA alla produzione dell’IA richiede un cambiamento di mentalità: passare dal “possiamo farlo?” a “in che modo questo determina valore e come lo governiamo?”

Che si tratti del rigore scientifico di MassMutual o del consolidamento disciplinato di MGB, la lezione è chiara: l’intelligenza artificiale aziendale di successo non dipende dal numero di progetti pilota che si eseguono, ma dalla disciplina con cui li si ridimensiona.

Exit mobile version