Tabla de contenidos
- Los hechos: qué pasó y por qué importa
- La función “Expert Review” de Grammarly
- La demanda de Julia Angwin
- El contexto legal: por qué este caso es significativo
- Derechos de publicidad vs. innovación en IA
- El dilema de la transparencia vs. la credibilidad
- Respuesta de la industria y cambios inmediatos
- La reacción de Grammarly
- Implicaciones para otras empresas de IA
- Análisis: tres lecciones clave para el futuro de la IA
- 1. El consentimiento no es negociable
- 2. La transparencia construye confianza a largo plazo
- 3. La innovación ética es sostenible
- Preguntas frecuentes adicionales
- ¿Qué otros expertos fueron afectados?
- ¿Grammarly eliminó datos de los expertos?
- ¿Qué consecuencias podría enfrentar Grammarly?
- ¿Cómo pueden protegerse los profesionales?
- Conclusión: un momento decisivo para la ética de la IA
Grammarly, la popular herramienta de escritura asistida por IA, enfrenta una demanda colectiva presentada por la periodista Julia Angwin, quien alega que la empresa usó su identidad y la de otros expertos sin permiso en su función “Expert Review”. El caso marca un punto de inflexión legal en cómo las empresas de inteligencia artificial pueden utilizar identidades reales para dar credibilidad a sus sistemas automatizados.
La demanda llega en un momento de creciente escrutinio sobre las prácticas éticas de las empresas de IA, particularmente en relación con el uso de contenido y datos personales sin consentimiento adecuado. Grammarly ha respondido desactivando temporalmente la función controvertida y admitiendo que “claramente fallamos” en su implementación.
Los hechos: qué pasó y por qué importa
La función “Expert Review” de Grammarly
Durante meses, Grammarly ha ofrecido una función llamada “Expert Review” que presentaba sugerencias de edición de escritura “inspiradas por” expertos reales, incluyendo periodistas, editores y escritores reconocidos. Cuando los usuarios activaban esta función, veían nombres y perfiles de estos expertos como si hubieran revisado personalmente su texto.
El problema fundamental: Estos expertos nunca dieron su consentimiento para que sus identidades fueran utilizadas de esta manera. La función generaba sugerencias completamente automatizadas por IA, pero las presentaba como si vinieran directamente de los expertos cuyos nombres mostraba.
La demanda de Julia Angwin
Julia Angwin, periodista de investigación y cofundadora de The Markup, descubrió que su identidad estaba siendo utilizada por Grammarly a través de Casey Newton de Platformer, quien también estaba entre los “expertos” utilizados. Angwin presentó una demanda colectiva el 11 de marzo de 2026 alegando que:
- Violación de derechos de publicidad: Grammarly usó su identidad para fines comerciales sin permiso
- Apropiación indebida de nombre y semejanza: Utilizó su reputación profesional para dar credibilidad a un producto automatizado
- Enriquecimiento injusto: Se benefició comercialmente del uso no autorizado de identidades profesionales
Fuentes principales:
- One of Grammarly’s ‘experts’ is suing the company over its identity-stealing AI feature (The Verge)
- Grammarly is facing a class-action lawsuit over its AI expert review feature (Wired)
El contexto legal: por qué este caso es significativo
Derechos de publicidad vs. innovación en IA
Los derechos de publicidad protegen el uso comercial del nombre, imagen o semejanza de una persona. Tradicionalmente aplicados a celebridades en publicidad, estos derechos ahora enfrentan nuevos desafíos en la era digital:
- IA generativa puede crear contenido que parece venir de personas reales
- Sistemas de recomendación pueden atribuir opiniones a individuos sin su consentimiento
- Herramientas de productividad utilizan la autoridad de expertos para validar sugerencias automatizadas
Este caso podría establecer precedentes importantes sobre:
- Cómo se aplican las leyes de derechos de publicidad a sistemas de IA
- Qué constituye “uso comercial” en el contexto de herramientas de productividad
- Qué nivel de consentimiento se requiere para usar identidades profesionales en sistemas automatizados
El dilema de la transparencia vs. la credibilidad
Grammarly enfrenta un dilema común en el diseño de productos de IA:
- Transparencia total (“esto es generado por IA”) puede reducir la confianza del usuario
- Atribución a expertos aumenta la credibilidad pero requiere consentimiento y precisión
- Términos intermedios (“inspirado por”) pueden ser engañosos si no se explican claramente
La función “Expert Review” optó por un enfoque que maximizaba la credibilidad a expensas de la transparencia y el consentimiento, una decisión que ahora enfrenta desafíos legales.
Respuesta de la industria y cambios inmediatos
La reacción de Grammarly
Frente a la demanda y la cobertura mediática, Grammarly ha tomado varias medidas:
- Desactivación temporal de la función “Expert Review”
- Reconocimiento público de que “claramente fallamos” en su implementación
- Compromiso de rediseño para dar a los expertos “control real sobre cómo quieren ser representados”
- Disculpa pública a los afectados
Ailian Gan, directora de gestión de productos de Superhuman (empresa matriz de Grammarly), declaró: “Basándonos en los comentarios que hemos recibido, claramente fallamos. Lo sentimos y haremos las cosas de manera diferente en el futuro.”
Implicaciones para otras empresas de IA
Este caso probablemente impulse cambios en toda la industria:
- Revisión de prácticas de atribución en herramientas de IA
- Mayor énfasis en obtención de consentimiento explícito
- Desarrollo de estándares para uso ético de identidades en sistemas automatizados
- Inversión en alternativas que no dependan de identidades reales sin permiso
Análisis: tres lecciones clave para el futuro de la IA
1. El consentimiento no es negociable
La era de “pedir perdón en lugar de permiso” está llegando a su fin en el desarrollo de IA. Las empresas deben:
- Obtener consentimiento explícito antes de usar cualquier identidad
- Establecer acuerdos claros sobre cómo se utilizarán las identidades
- Ofrecer mecanismos simples para retirar el consentimiento
2. La transparencia construye confianza a largo plazo
Estrategias que priorizan la credibilidad inmediata sobre la transparencia:
- Pueden generar ganancias a corto plazo pero riesgos a largo plazo
- Dañan la reputación de la marca cuando se descubren
- Crean desconfianza sistémica en toda la industria de IA
3. La innovación ética es sostenible
Los sistemas de IA que respetan derechos fundamentales:
- Son más resistentes a desafíos legales y regulatorios
- Construyen relaciones más sólidas con usuarios y comunidades
- Contribuyen a un ecosistema de IA más saludable y sostenible
Preguntas frecuentes adicionales
¿Qué otros expertos fueron afectados?
Además de Julia Angwin, la función incluía a varios periodistas y editores de medios como The Verge, incluyendo al editor en jefe Nilay Patel. The Verge descubrió inicialmente el uso no autorizado de identidades en febrero de 2026.
¿Grammarly eliminó datos de los expertos?
No está claro si Grammarly entrenó sus modelos con escritos de estos expertos o simplemente usó sus nombres para dar credibilidad. La demanda se centra en el uso no autorizado de identidades, no necesariamente en el uso de datos de entrenamiento.
¿Qué consecuencias podría enfrentar Grammarly?
Además de posibles daños monetarios, Grammarly podría enfrentar:
- Sanciones regulatorias por violaciones de privacidad
- Daño reputacional significativo
- Cambios obligatorios en sus prácticas comerciales
- Mayor escrutinio de futuros productos de IA
¿Cómo pueden protegerse los profesionales?
Los expertos y profesionales pueden:
- Monitorear regularmente cómo se usa su nombre en línea
- Establecer alertas para menciones de su nombre en nuevos productos
- Consultar con abogados sobre derechos de publicidad
- Participar en discusiones sobre estándares éticos para IA
Conclusión: un momento decisivo para la ética de la IA
El caso de Grammarly vs. Angwin representa más que una disputa legal individual. Es un punto de referencia en la evolución de normas éticas para la inteligencia artificial, particularmente en cómo las empresas equilibran:
- Innovación tecnológica con respeto por derechos individuales
- Mejora de productos con transparencia y consentimiento
- Credibilidad comercial con integridad ética
Mientras Grammarly rediseña su función “Expert Review” y la industria observa de cerca el resultado legal, una cosa es clara: el futuro de la IA exitosa será construido sobre cimientos de consentimiento, transparencia y respeto por la identidad humana, no a pesar de ellos.
Actualización: Grammarly ha confirmado que mantendrá la función “Expert Review” desactivada mientras desarrolla un nuevo enfoque que dé a los expertos control genuino sobre su representación en el sistema.
Preguntas frecuentes
¿Qué es la función 'Expert Review' de Grammarly?
'Expert Review' es una función de IA de Grammarly que ofrece sugerencias de edición 'inspiradas por' expertos reales, mostrando sus nombres y perfiles como si hubieran revisado personalmente el texto, cuando en realidad son generadas por inteligencia artificial.
¿Quién es Julia Angwin y por qué demanda a Grammarly?
Julia Angwin es una periodista de investigación cuyo nombre y perfil fueron utilizados sin su permiso en la función 'Expert Review' de Grammarly. Presentó una demanda colectiva alegando violación de sus derechos de privacidad y publicidad.
¿Qué leyes podría estar violando Grammarly?
La demanda alega que Grammarly violó leyes estatales y federales contra el uso no autorizado de la identidad de alguien para fines comerciales, específicamente leyes de derechos de publicidad que protegen el uso comercial del nombre, imagen o semejanza de una persona.
¿Cómo ha respondido Grammarly?
Grammarly ha desactivado temporalmente la función 'Expert Review' y ha declarado que 'claramente fallamos' en su implementación, prometiendo 'hacer las cosas de manera diferente en el futuro' y dar a los expertos control real sobre cómo quieren ser representados.
¿Por qué este caso es importante para el futuro de la IA?
Este caso establece un precedente crucial sobre cómo las empresas de IA pueden usar identidades reales en sus sistemas, equilibrando la innovación tecnológica con los derechos individuales de privacidad y control sobre la propia identidad digital.