Grammarly, il popolare strumento di assistenza alla scrittura, sta affrontando un’azione legale collettiva intentata dalla giornalista Julia Angwin per la sua controversa funzione “Expert Review”. Secondo quanto riferito, questa funzionalità utilizzava nomi e sembianze di scrittori e accademici – compresi quelli di The Verge – senza il loro consenso per generare suggerimenti basati sull’intelligenza artificiale, rubando di fatto le loro identità per scopi commerciali.

Il nocciolo della controversia: Privacy e sfruttamento commerciale

La causa sostiene che Grammarly ha violato la privacy e i diritti di pubblicità sfruttando le identità degli individui a scopo di lucro senza autorizzazione. Angwin ha scoperto che il proprio nome veniva utilizzato all’interno dello strumento dopo essere stata avvisata da Casey Newton di The Verge, che ha anche confermato l’inclusione non autorizzata. Diversi membri dello staff di Verge, incluso il caporedattore Nilay Patel, sono stati identificati come sfruttati dalla funzionalità.

Questa pratica solleva seri interrogativi sull’etica dello sviluppo dell’IA, in particolare per quanto riguarda l’uso dei dati personali. Aziende come Grammarly operano partendo dal presupposto che gli strumenti di intelligenza artificiale siano neutrali, ma in realtà fanno molto affidamento sul contributo e sulla credibilità umana. L’uso non autorizzato dei nomi di questi esperti suggerisce un disprezzo per i diritti individuali nel tentativo di rafforzare l’autorità percepita dall’IA.

Risposta di Grammarly e sospensione delle funzionalità

In seguito al contraccolpo, il CEO di Grammarly Shishir Mehrotra si è scusato e ha annunciato l’immediata sospensione della funzione “Revisione degli esperti”. Inizialmente l’azienda aveva offerto un’opzione di rinuncia via e-mail, ma alla fine ha deciso di disabilitare del tutto lo strumento.

Mehrotra ha affermato che la funzione mirava a connettere gli esperti con il loro pubblico, ma ha riconosciuto che l’esecuzione non è stata sufficiente. Questo incidente evidenzia le difficoltà di bilanciare l’innovazione con considerazioni etiche nel panorama in rapida evoluzione dei prodotti basati sull’intelligenza artificiale.

Implicazioni e preoccupazioni future

La causa contro Grammarly sottolinea una tendenza crescente di sfide legali contro le società di intelligenza artificiale che abusano dei dati personali. Il caso solleva questioni più ampie sulla trasparenza, il consenso e la responsabilità nello sviluppo di strumenti di intelligenza artificiale. Poiché queste tecnologie diventano sempre più sofisticate, la necessità di quadri giuridici solidi per proteggere i diritti individuali diventerà sempre più critica.

Questa causa serve da chiaro avvertimento agli sviluppatori di intelligenza artificiale: sfruttare le identità umane per guadagni commerciali senza il consenso esplicito non solo non è etico ma ora è legalmente perseguibile.