12 de Diciembre de 2025
Edición 7354 ISSN 1667-8486
Próxima Actualización: 15/12/2025
Primera sentencia en Europa contra OpenIA

IA desafinada

Un Tribunal Regional de Múnich, especializado en Derecho de Autor, consideró que los modelos de lenguaje de OpenAI memorizaban y reproducían obras musicales protegidas sin autorización.

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

El Tribunal Regional de Múnich I resolvió el caso iniciado por la entidad de defensa de los derechos de autor en Alemania GEMA, contra dos empresas del grupo OpenAI, responsables del desarrollo y operación de modelos de lenguaje como GPT-4 y GPT-4o.

La demanda alegaba que las obras de nueve autores y compositores alemanes —entre ellas “Atemlos” de Kristina Bach y “Wie schön, dass du geboren bist” de Rolf Zuckowski— habían sido incorporadas a los modelos de IA y reproducidas en las respuestas del chatbot de manera casi literal, sin licencia ni compensación económica.

GEMA sostuvo que los textos de las canciones estaban “memorizados” en los parámetros de los modelos y que podían ser reproducidos íntegramente ante simples solicitudes de los usuarios, lo que implicaba un uso no autorizado de obras protegidas.

Las empresas demandadas negaron la infracción y argumentaron que sus modelos no almacenan ni copian textos específicos, sino que aprenden patrones estadísticos a partir de un gran conjunto de datos. Sostuvieron que cualquier similitud entre las respuestas generadas y las obras originales era fruto de procesos algorítmicos, no de una copia directa.

Asimismo, invocaron la excepción de “text and data mining” prevista en la legislación alemana (§44b UrhG) y europea (Directiva 2019/790, art. 4 DSM-RL), que permite utilizar obras con fines de análisis automatizado de datos, sin necesidad de autorización del titular de derechos.

 

El fallo consideró acreditado, mediante peritajes técnicos, que los textos estaban reproducibles dentro de los modelos GPT-4 y GPT-4o. Esa “memorización” —dijo el tribunal— equivale a una fijación del contenido protegido en los parámetros del sistema, lo que cumple los requisitos para ser considerado un acto de reproducción.

 

La Sala Civil 42, presidida por la jueza Cornelia Kallert, rechazó los argumentos de OpenAI y concluyó que la reproducción parcial o total de las letras dentro de los modelos y sus salidas constituye una “vervielfältigung” (reproducción) en los términos del artículo 2 de la Directiva InfoSoc y el §16 de la Ley Alemana de Derechos de Autor (UrhG).

 

El tribunal también dictaminó que, al incluir la letra en el resultado del chatbot, las partes demandadas habían reproducido y divulgado públicamente de forma ilícita dicha letra. Los elementos originales de la letra siempre fueron reconocibles en el resultado.

 

El fallo consideró acreditado, mediante peritajes técnicos, que los textos estaban reproducibles dentro de los modelos GPT-4 y GPT-4o. Esa “memorización” —dijo el tribunal— equivale a una fijación del contenido protegido en los parámetros del sistema, lo que cumple los requisitos para ser considerado un acto de reproducción.

“Las reproducciones dentro del modelo perjudican permanentemente la explotación de la obra y, por lo tanto, infringen los intereses legítimos de los titulares de los derechos.”, sostuvo la sentencia. 

El tribunal también dictaminó que, al incluir la letra en el resultado del chatbot, las partes demandadas habían reproducido y divulgado públicamente de forma ilícita dicha letra. Los elementos originales de la letra siempre fueron reconocibles en el resultado.

Por ende, “…fueron responsables de la arquitectura de los modelos y de la memorización de los datos de entrenamiento. Por lo tanto, los modelos de lenguaje gestionados por los acusados ​​influyeron significativamente en el resultado; el contenido específico del resultado fue generado por los modelos de lenguaje.”

La sentencia, no firme al momento de su publicación, ordena a las empresas de OpenAI cesar el uso no autorizado de los textos protegidos, informar el alcance de la utilización y responder por los daños ocasionados.


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Otra vez el mal uso de IA
ChatGPT no es tu pasante
La ONU advierte sobre el impacto de la IA
La justicia no se programa
La Justicia de Nueva York se sube al tren de la IA
La IA como herramienta, no como juez
Nueva York
Mi voz es mi voz
La alzada pidió la intervención del TSJ
Al juez lo condenó ChatGPT
Otra vez las alucinaciones judiciales
Gol en contra por usar mal ChatGPT

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486