Grammarly, популярный инструмент помощи в написании текстов, столкнулась с коллективным иском, поданным журналисткой Джулией Энгвин в связи со спорной функцией «Expert Review». По сообщениям, эта функция использовала имена и изображения писателей и ученых – включая сотрудников The Verge – без их согласия для генерации AI-предложений, фактически похищая их личности в коммерческих целях.
Суть спора: конфиденциальность и коммерческая эксплуатация
В иске утверждается, что Grammarly нарушила права на конфиденциальность и использование чужих образов, извлекая прибыль из идентификационных данных людей без их разрешения. Энгвин обнаружила, что ее имя используется в инструменте после того, как ей сообщил Кейси Ньютон из The Verge, который также подтвердил несанкционированное включение его данных. Несколько сотрудников The Verge, включая главного редактора Нилая Пателя, были идентифицированы как объекты эксплуатации этой функцией.
Эта практика ставит серьезные вопросы об этике разработки AI, особенно в отношении использования личных данных. Такие компании, как Grammarly, действуют, исходя из предположения, что AI-инструменты нейтральны, но на самом деле они сильно зависят от человеческого вклада и авторитета. Несанкционированное использование имен этих экспертов говорит о пренебрежении индивидуальными правами в погоне за усилением воспринимаемого авторитета AI.
Ответ Grammarly и приостановка функции
После возмущения генеральный директор Grammarly Шишир Мехротра принес извинения и объявил о немедленной приостановке функции «Expert Review». Компания изначально предложила возможность отказаться от участия по электронной почте, но в конечном итоге решила отключить инструмент полностью.
Мехротра заявил, что функция была направлена на то, чтобы связать экспертов с их аудиторией, но признал, что реализация оказалась неудачной. Этот инцидент подчеркивает трудности балансирования инноваций с этическими соображениями в быстро развивающейся среде AI-продуктов.
Последствия и будущие опасения
Судебный иск против Grammarly подчеркивает растущую тенденцию юридических проблем для AI-компаний, которые злоупотребляют личными данными. Дело поднимает более широкие вопросы о прозрачности, согласии и ответственности в разработке AI-инструментов. По мере того, как эти технологии становятся более сложными, необходимость в надежных правовых рамках для защиты индивидуальных прав будет становиться все более важной.
Этот иск служит четким предупреждением для разработчиков AI: эксплуатация человеческих личностей в коммерческих целях без явного согласия не только неэтична, но теперь и преследуется по закону.
























