04 de Diciembre de 2025
Edición 7349 ISSN 1667-8486
Próxima Actualización: 05/12/2025

Con el chat no se entrena la IA

La red social LinkedIn es objeto de una demanda colectiva donde se denuncia que la empresa usaba los mensajes privados de sus usuarios premium para entrenar modelos de inteligencia artificial, exponiendo material sensible a usos no autorizados.

(Imagen generada por IA con tecnología DALL-E 3)
Por:
Sebastián
Onocko
Por:
Sebastián
Onocko

Un grupo de personas inició una acción de clase contra la red social laboral “LinkedIn” denunciando que la plataforma comparte información privada de mensajería de sus usuarios premium con terceros, con el objetivo de entrenar modelos de inteligencia artificial.

Los demandantes alegan qué, tratándose de una red social profesional, los mensajes privados incluían comunicaciones con contenido sensible y que podrían alterar la vida de los usuarios afectados con información sobre su trabajo, propiedad intelectual, compensaciones y otros temas personales.

 

Consideraban que ahora sus información estaba incluida de forma permanente en los sistemas de IA sin que dieran su consentimiento, exponiéndolos a futuros usos no autorizados de sus datos personales, sin que la empresa siquiera ofrezca eliminar esos datos de los modelos de IA o los reentrene sin esa información.

 

De esta manera, consideraban que ahora sus información estaba incluida de forma permanente en los sistemas de IA sin que dieran su consentimiento, exponiéndolos a futuros usos no autorizados de sus datos personales, sin que la empresa siquiera ofrezca eliminar esos datos de los modelos de IA o los reentrene sin esa información.

A su criterio, la red social incumplió el contrato con sus usuarios premium y su accionar viola la normativa vigente. Por lo cual reclamaron todo tipo de daños (actuales, punitivos, costas, costos, ganancias) y exigieron que se ordene a eliminar o destruir los modelos o algoritmos entrenados usando sus mensajes privados “InMail” en violación de la SCA 18 USC 2702, y que cese su uso en el futuro.

La acción también indicó que la red social ofrecía un servicio a sus usuarios de pago que incluía la promesas de proteger la privacidad de sus comunicaciones, lo que no fue cumplido, generando daños en los actores.

Además, los demandantes dieron cuenta de que fue la propia compañía la que expuso la maniobra cuando agregó una opción de privacidad para quienes no querían que sus datos se utilicen para entrenar la IA, lo que se introdujo de forma discreta, revelando que la información ya estaba siendo usada para el entrenamiento de la IA, lo que incluso llevó a que deban cambiar su política de privacidad en septiembre de 2024 para tratar de justificar sus acciones y obtener el consentimiento del usuario por una conducta que ya ocurrió antes sin consentimiento.

Documento relacionado:


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.


VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486