Un grupo de personas inició una acción de clase contra la red social laboral “LinkedIn” denunciando que la plataforma comparte información privada de mensajería de sus usuarios premium con terceros, con el objetivo de entrenar modelos de inteligencia artificial.
Los demandantes alegan qué, tratándose de una red social profesional, los mensajes privados incluían comunicaciones con contenido sensible y que podrían alterar la vida de los usuarios afectados con información sobre su trabajo, propiedad intelectual, compensaciones y otros temas personales.
Consideraban que ahora sus información estaba incluida de forma permanente en los sistemas de IA sin que dieran su consentimiento, exponiéndolos a futuros usos no autorizados de sus datos personales, sin que la empresa siquiera ofrezca eliminar esos datos de los modelos de IA o los reentrene sin esa información.
De esta manera, consideraban que ahora sus información estaba incluida de forma permanente en los sistemas de IA sin que dieran su consentimiento, exponiéndolos a futuros usos no autorizados de sus datos personales, sin que la empresa siquiera ofrezca eliminar esos datos de los modelos de IA o los reentrene sin esa información.
A su criterio, la red social incumplió el contrato con sus usuarios premium y su accionar viola la normativa vigente. Por lo cual reclamaron todo tipo de daños (actuales, punitivos, costas, costos, ganancias) y exigieron que se ordene a eliminar o destruir los modelos o algoritmos entrenados usando sus mensajes privados “InMail” en violación de la SCA 18 USC 2702, y que cese su uso en el futuro.
La acción también indicó que la red social ofrecía un servicio a sus usuarios de pago que incluía la promesas de proteger la privacidad de sus comunicaciones, lo que no fue cumplido, generando daños en los actores.
Además, los demandantes dieron cuenta de que fue la propia compañía la que expuso la maniobra cuando agregó una opción de privacidad para quienes no querían que sus datos se utilicen para entrenar la IA, lo que se introdujo de forma discreta, revelando que la información ya estaba siendo usada para el entrenamiento de la IA, lo que incluso llevó a que deban cambiar su política de privacidad en septiembre de 2024 para tratar de justificar sus acciones y obtener el consentimiento del usuario por una conducta que ya ocurrió antes sin consentimiento.