Inteligencia artificial

Grammarly enfrenta demanda por usar identidades de expertos sin permiso en su IA

La periodista Julia Angwin demanda a Superhuman por usar su nombre y perfil en la función 'Expert Review' de Grammarly sin consentimiento, marcando un precedente legal para la ética de la IA.

Portada de inteligencia artificial con iconos de privacidad y derechos legales
AdSense bajo el título

Tabla de contenidos

  1. Los hechos: qué pasó y por qué importa
  2. La función “Expert Review” de Grammarly
  3. La demanda de Julia Angwin
  4. El contexto legal: por qué este caso es significativo
  5. Derechos de publicidad vs. innovación en IA
  6. El dilema de la transparencia vs. la credibilidad
  7. Respuesta de la industria y cambios inmediatos
  8. La reacción de Grammarly
  9. Implicaciones para otras empresas de IA
  10. Análisis: tres lecciones clave para el futuro de la IA
  11. 1. El consentimiento no es negociable
  12. 2. La transparencia construye confianza a largo plazo
  13. 3. La innovación ética es sostenible
  14. Preguntas frecuentes adicionales
  15. ¿Qué otros expertos fueron afectados?
  16. ¿Grammarly eliminó datos de los expertos?
  17. ¿Qué consecuencias podría enfrentar Grammarly?
  18. ¿Cómo pueden protegerse los profesionales?
  19. Conclusión: un momento decisivo para la ética de la IA
AdSense después de la tabla de contenidos

Grammarly, la popular herramienta de escritura asistida por IA, enfrenta una demanda colectiva presentada por la periodista Julia Angwin, quien alega que la empresa usó su identidad y la de otros expertos sin permiso en su función “Expert Review”. El caso marca un punto de inflexión legal en cómo las empresas de inteligencia artificial pueden utilizar identidades reales para dar credibilidad a sus sistemas automatizados.

La demanda llega en un momento de creciente escrutinio sobre las prácticas éticas de las empresas de IA, particularmente en relación con el uso de contenido y datos personales sin consentimiento adecuado. Grammarly ha respondido desactivando temporalmente la función controvertida y admitiendo que “claramente fallamos” en su implementación.

Los hechos: qué pasó y por qué importa

La función “Expert Review” de Grammarly

Durante meses, Grammarly ha ofrecido una función llamada “Expert Review” que presentaba sugerencias de edición de escritura “inspiradas por” expertos reales, incluyendo periodistas, editores y escritores reconocidos. Cuando los usuarios activaban esta función, veían nombres y perfiles de estos expertos como si hubieran revisado personalmente su texto.

El problema fundamental: Estos expertos nunca dieron su consentimiento para que sus identidades fueran utilizadas de esta manera. La función generaba sugerencias completamente automatizadas por IA, pero las presentaba como si vinieran directamente de los expertos cuyos nombres mostraba.

La demanda de Julia Angwin

Julia Angwin, periodista de investigación y cofundadora de The Markup, descubrió que su identidad estaba siendo utilizada por Grammarly a través de Casey Newton de Platformer, quien también estaba entre los “expertos” utilizados. Angwin presentó una demanda colectiva el 11 de marzo de 2026 alegando que:

  1. Violación de derechos de publicidad: Grammarly usó su identidad para fines comerciales sin permiso
  2. Apropiación indebida de nombre y semejanza: Utilizó su reputación profesional para dar credibilidad a un producto automatizado
  3. Enriquecimiento injusto: Se benefició comercialmente del uso no autorizado de identidades profesionales

Fuentes principales:

Derechos de publicidad vs. innovación en IA

Los derechos de publicidad protegen el uso comercial del nombre, imagen o semejanza de una persona. Tradicionalmente aplicados a celebridades en publicidad, estos derechos ahora enfrentan nuevos desafíos en la era digital:

  • IA generativa puede crear contenido que parece venir de personas reales
  • Sistemas de recomendación pueden atribuir opiniones a individuos sin su consentimiento
  • Herramientas de productividad utilizan la autoridad de expertos para validar sugerencias automatizadas

Este caso podría establecer precedentes importantes sobre:

  1. Cómo se aplican las leyes de derechos de publicidad a sistemas de IA
  2. Qué constituye “uso comercial” en el contexto de herramientas de productividad
  3. Qué nivel de consentimiento se requiere para usar identidades profesionales en sistemas automatizados

El dilema de la transparencia vs. la credibilidad

Grammarly enfrenta un dilema común en el diseño de productos de IA:

  • Transparencia total (“esto es generado por IA”) puede reducir la confianza del usuario
  • Atribución a expertos aumenta la credibilidad pero requiere consentimiento y precisión
  • Términos intermedios (“inspirado por”) pueden ser engañosos si no se explican claramente

La función “Expert Review” optó por un enfoque que maximizaba la credibilidad a expensas de la transparencia y el consentimiento, una decisión que ahora enfrenta desafíos legales.

Respuesta de la industria y cambios inmediatos

La reacción de Grammarly

Frente a la demanda y la cobertura mediática, Grammarly ha tomado varias medidas:

  1. Desactivación temporal de la función “Expert Review”
  2. Reconocimiento público de que “claramente fallamos” en su implementación
  3. Compromiso de rediseño para dar a los expertos “control real sobre cómo quieren ser representados”
  4. Disculpa pública a los afectados

Ailian Gan, directora de gestión de productos de Superhuman (empresa matriz de Grammarly), declaró: “Basándonos en los comentarios que hemos recibido, claramente fallamos. Lo sentimos y haremos las cosas de manera diferente en el futuro.”

Implicaciones para otras empresas de IA

Este caso probablemente impulse cambios en toda la industria:

  • Revisión de prácticas de atribución en herramientas de IA
  • Mayor énfasis en obtención de consentimiento explícito
  • Desarrollo de estándares para uso ético de identidades en sistemas automatizados
  • Inversión en alternativas que no dependan de identidades reales sin permiso

Análisis: tres lecciones clave para el futuro de la IA

1. El consentimiento no es negociable

La era de “pedir perdón en lugar de permiso” está llegando a su fin en el desarrollo de IA. Las empresas deben:

  • Obtener consentimiento explícito antes de usar cualquier identidad
  • Establecer acuerdos claros sobre cómo se utilizarán las identidades
  • Ofrecer mecanismos simples para retirar el consentimiento

2. La transparencia construye confianza a largo plazo

Estrategias que priorizan la credibilidad inmediata sobre la transparencia:

  • Pueden generar ganancias a corto plazo pero riesgos a largo plazo
  • Dañan la reputación de la marca cuando se descubren
  • Crean desconfianza sistémica en toda la industria de IA

3. La innovación ética es sostenible

Los sistemas de IA que respetan derechos fundamentales:

  • Son más resistentes a desafíos legales y regulatorios
  • Construyen relaciones más sólidas con usuarios y comunidades
  • Contribuyen a un ecosistema de IA más saludable y sostenible

Preguntas frecuentes adicionales

¿Qué otros expertos fueron afectados?

Además de Julia Angwin, la función incluía a varios periodistas y editores de medios como The Verge, incluyendo al editor en jefe Nilay Patel. The Verge descubrió inicialmente el uso no autorizado de identidades en febrero de 2026.

¿Grammarly eliminó datos de los expertos?

No está claro si Grammarly entrenó sus modelos con escritos de estos expertos o simplemente usó sus nombres para dar credibilidad. La demanda se centra en el uso no autorizado de identidades, no necesariamente en el uso de datos de entrenamiento.

¿Qué consecuencias podría enfrentar Grammarly?

Además de posibles daños monetarios, Grammarly podría enfrentar:

  • Sanciones regulatorias por violaciones de privacidad
  • Daño reputacional significativo
  • Cambios obligatorios en sus prácticas comerciales
  • Mayor escrutinio de futuros productos de IA

¿Cómo pueden protegerse los profesionales?

Los expertos y profesionales pueden:

  • Monitorear regularmente cómo se usa su nombre en línea
  • Establecer alertas para menciones de su nombre en nuevos productos
  • Consultar con abogados sobre derechos de publicidad
  • Participar en discusiones sobre estándares éticos para IA

Conclusión: un momento decisivo para la ética de la IA

El caso de Grammarly vs. Angwin representa más que una disputa legal individual. Es un punto de referencia en la evolución de normas éticas para la inteligencia artificial, particularmente en cómo las empresas equilibran:

  • Innovación tecnológica con respeto por derechos individuales
  • Mejora de productos con transparencia y consentimiento
  • Credibilidad comercial con integridad ética

Mientras Grammarly rediseña su función “Expert Review” y la industria observa de cerca el resultado legal, una cosa es clara: el futuro de la IA exitosa será construido sobre cimientos de consentimiento, transparencia y respeto por la identidad humana, no a pesar de ellos.

Actualización: Grammarly ha confirmado que mantendrá la función “Expert Review” desactivada mientras desarrolla un nuevo enfoque que dé a los expertos control genuino sobre su representación en el sistema.

Preguntas frecuentes

¿Qué es la función 'Expert Review' de Grammarly?

'Expert Review' es una función de IA de Grammarly que ofrece sugerencias de edición 'inspiradas por' expertos reales, mostrando sus nombres y perfiles como si hubieran revisado personalmente el texto, cuando en realidad son generadas por inteligencia artificial.

¿Quién es Julia Angwin y por qué demanda a Grammarly?

Julia Angwin es una periodista de investigación cuyo nombre y perfil fueron utilizados sin su permiso en la función 'Expert Review' de Grammarly. Presentó una demanda colectiva alegando violación de sus derechos de privacidad y publicidad.

¿Qué leyes podría estar violando Grammarly?

La demanda alega que Grammarly violó leyes estatales y federales contra el uso no autorizado de la identidad de alguien para fines comerciales, específicamente leyes de derechos de publicidad que protegen el uso comercial del nombre, imagen o semejanza de una persona.

¿Cómo ha respondido Grammarly?

Grammarly ha desactivado temporalmente la función 'Expert Review' y ha declarado que 'claramente fallamos' en su implementación, prometiendo 'hacer las cosas de manera diferente en el futuro' y dar a los expertos control real sobre cómo quieren ser representados.

¿Por qué este caso es importante para el futuro de la IA?

Este caso establece un precedente crucial sobre cómo las empresas de IA pueden usar identidades reales en sus sistemas, equilibrando la innovación tecnológica con los derechos individuales de privacidad y control sobre la propia identidad digital.

AdSense al final del artículo
Guanel

Autor

Guanel

Editor y creador de contenido

Guanel coordina la línea editorial del sitio y prioriza contenido práctico en español sobre apps, software, automatización y productividad digital.