Grammarly, het populaire schrijfhulpmiddel, wordt geconfronteerd met een class action-rechtszaak die is aangespannen door journaliste Julia Angwin vanwege de controversiële ‘Expert Review’-functie. Deze functie gebruikte naar verluidt de namen en gelijkenissen van schrijvers en academici – inclusief die van The Verge – zonder hun toestemming om door AI aangedreven suggesties te genereren, waardoor hun identiteit effectief werd gestolen voor commerciële doeleinden.

De kern van het geschil: privacy en commerciële uitbuiting

De rechtszaak beweert dat Grammarly de privacy- en publiciteitsrechten heeft geschonden door zonder toestemming de identiteit van individuen te gebruiken voor winst. Angwin ontdekte dat haar eigen naam in de tool werd gebruikt nadat ze was gewaarschuwd door Casey Newton van The Verge, die ook bevestigde dat ze zonder toestemming waren opgenomen. Er werd vastgesteld dat meerdere medewerkers van Verge, waaronder hoofdredacteur Nilay Patel, door de functie werden uitgebuit.

Deze praktijk roept serieuze vragen op over de ethiek van AI-ontwikkeling, vooral met betrekking tot het gebruik van persoonlijke gegevens. Bedrijven als Grammarly gaan ervan uit dat AI-tools neutraal zijn, maar in werkelijkheid zijn ze sterk afhankelijk van menselijke inbreng en geloofwaardigheid. Het ongeoorloofde gebruik van de namen van deze experts suggereert een minachting voor individuele rechten bij het nastreven van het versterken van de waargenomen autoriteit van de AI.

Grammarly’s reactie en opschorting van functies

Na de reactie bood Shishir Mehrotra, CEO van Grammarly, zijn excuses aan en kondigde de onmiddellijke opschorting van de “Expert Review” -functie aan. Het bedrijf had aanvankelijk via e-mail een opt-out-optie aangeboden, maar besloot uiteindelijk de tool helemaal uit te schakelen.

Mehrotra verklaarde dat de functie bedoeld was om experts met hun publiek in contact te brengen, maar erkende dat de uitvoering tekortschoot. Dit incident benadrukt de moeilijkheden bij het balanceren van innovatie met ethische overwegingen in het snel evoluerende landschap van AI-gestuurde producten.

Implicaties en toekomstige zorgen

De rechtszaak tegen Grammarly onderstreept een groeiende trend van juridische uitdagingen tegen AI-bedrijven die persoonlijke gegevens misbruiken. De zaak roept bredere vragen op over transparantie, toestemming en verantwoording bij de ontwikkeling van AI-tools. Naarmate deze technologieën geavanceerder worden, zal de behoefte aan robuuste wettelijke kaders om individuele rechten te beschermen steeds belangrijker worden.

Deze rechtszaak dient als een duidelijke waarschuwing voor AI-ontwikkelaars: het exploiteren van menselijke identiteiten voor commercieel gewin zonder expliciete toestemming is niet alleen onethisch, maar nu ook juridisch vervolgbaar.