Grammarly, popularne narzędzie pomagające w pisaniu, stoi w obliczu pozwu zbiorowego złożonego przez dziennikarkę Julię Angwin w związku z kontrowersyjną funkcją „Expert Review”. Według doniesień funkcja ta wykorzystywała nazwiska i wizerunki pisarzy i naukowców – w tym pracowników The Verge – bez ich zgody w celu generowania sugestii dotyczących sztucznej inteligencji, skutecznie kradnąc ich tożsamość w celach komercyjnych.
Istota sporu: poufność i wykorzystanie komercyjne
W pozwie zarzucono, że Grammarly naruszyła prawa do prywatności i podobieństwa, czerpiąc korzyści z tożsamości ludzi bez ich zgody. Angwine odkryła, że w narzędziu użyto jej nazwiska, po tym, jak otrzymała cynk od Caseya Newtona z The Verge, który również potwierdził nieuprawnione wykorzystanie jego danych. Stwierdzono, że kilku pracowników The Verge, w tym redaktor naczelny Nilay Patel, jest wykorzystywanych przez tę funkcję.
Praktyka ta rodzi poważne pytania dotyczące etyki rozwoju sztucznej inteligencji, zwłaszcza w zakresie wykorzystania danych osobowych. Firmy takie jak Grammarly działają w oparciu o założenie, że narzędzia AI są neutralne, ale w rzeczywistości w dużym stopniu opierają się na wkładzie i autorytecie człowieka. Nieuprawnione użycie nazwisk tych ekspertów sugeruje lekceważenie praw jednostki w dążeniu do zwiększenia postrzeganego autorytetu sztucznej inteligencji.
Funkcja odpowiedzi i wstrzymywania gramatyki
Po tym oburzeniu dyrektor generalny Grammarly Shishir Mehrotra przeprosił i ogłosił natychmiastowe zawieszenie funkcji Expert Review. Firma początkowo oferowała opcję rezygnacji za pośrednictwem poczty elektronicznej, ale ostatecznie zdecydowała się całkowicie wyłączyć to narzędzie.
Mehrotra powiedział, że funkcja ta miała na celu połączenie ekspertów z odbiorcami, ale przyznał, że wdrożenie się nie powiodło. Incydent uwypukla trudność w zrównoważeniu innowacji ze względami etycznymi w szybko rozwijającym się krajobrazie produktów AI.
Konsekwencje i przyszłe obawy
Pozew przeciwko Grammarly podkreśla rosnącą tendencję problemów prawnych firm zajmujących się sztuczną inteligencją, które niewłaściwie wykorzystują dane osobowe. Sprawa rodzi szersze pytania dotyczące przejrzystości, zgody i odpowiedzialności w opracowywaniu narzędzi sztucznej inteligencji. W miarę jak technologie te stają się coraz bardziej wyrafinowane, coraz większe znaczenie będzie mieć solidne ramy prawne chroniące prawa jednostki.
Ten pozew stanowi wyraźne ostrzeżenie dla twórców sztucznej inteligencji: wykorzystywanie ludzi do celów komercyjnych bez wyraźnej zgody jest nie tylko nieetyczne, ale obecnie podlega karze.























